Door Tomas Hochstenbach

Redacteur

Snelle graphics in een moderne processor

AMD Ryzen 5 8600G en Ryzen 7 8700G Review

29-01-2024 • 18:20

164

Singlepage-opmaak

Conclusie

Apu's waren ooit een unieke kracht van AMD, dat naast eigen processorcores ook eigen gpu's in huis heeft. Inmiddels lijken de modellen met snelle geïntegreerde graphics eerder bijzaak. Hoewel de naamgeving in de 8000-serie nieuwigheid doet vermoeden, zijn de Ryzen 5 8600G en Ryzen 7 8700G gebaseerd op de Phoenix-chips die AMD al ruim een jaar in laptops stopt, en ook aan de gebruikte Zen 4-cores van de Ryzen 7000-desktopprocessors zijn we inmiddels al zestien maanden gewend.

Update: twee videokaarten toegevoegd

Op veler verzoek hebben we ook twee low-end videokaarten getest in alle games en toegevoegd aan de grafieken op pagina 9, namelijk de:

  • AMD Radeon RX 6400 (+- 130 euro)
  • Nvidia GeForce GTX 1650 (+- 160 euro)

Een belangrijke reden voor de verslapte aandacht van AMD zal zijn dat ook de 'gewone' Ryzens sinds de Ryzen 7000-serie voorzien zijn van geïntegreerde graphics. Die gpu is weliswaar stukken langzamer dan de grafische rekeneenheden van de 8000G-apu's, maar de tijd van 100 euro moeten uitgeven aan een videokaart puur om beeld te krijgen, ligt achter ons. Wil een van de 8000G-apu's interessant voor je zijn, dan moet je dus behoefte hebben aan een snelle processor en óók interesse hebben in de snellere igpu. Je moet ook weer niet zo'n veeleisende gamer zijn dat je een losse videokaart wil. Dat is ontegenzeggelijk een kleinere niche dan voorheen het geval was.

Forse prestatiewinsten ten opzichte van voorlopers

De Ryzen 5 8600G presteert in cpu-taken doorgaans net wat minder dan de Ryzen 5 7600 met evenveel cores; hetzelfde geldt voor de Ryzen 7 8700G en de Ryzen 7 7700. In vergelijking met hun directe voorgangers laten ze je echter profiteren van de nieuwere cores, hogere kloksnelheden en de overstap naar DDR5-geheugen. Ten opzichte van de Ryzen 5000G-serie zien we prestatiewinsten van een kleine 20 procent voor de nieuwe modellen als het om cpu-rekentaken gaat.

De prestatiewinst op het gebied van de gpu is nog veel groter. De geïntegreerde gpu van de Ryzen 7 8700G is in theoretische tests wel dubbel zo snel als de bejaarde Vega-gpu die nog in de Ryzen 7 5700G zat. In de praktijk is gamen op 1080p-resolutie vaak goed mogelijk. Afhankelijk van hoe zwaar de game is, kun je in de ene game voor Medium-settings gaan, terwijl je het in de andere beter bij de Low-preset kunt houden. Zeker met snel geheugen is het vrijwel altijd mogelijk om naar een gemiddelde framerate van 60fps op full-hd-resolutie toe te werken, want de invloed daarvan is groot. Ook AMD's nieuwe framegenerationtechniek Fluid Motion Frames kan daarbij helpen, maar of die truc een fijne speelervaring oplevert, verschilt per soort game.

AMD wijst er in zijn aanprijzingen op dat je op een later moment altijd nog naar een losse videokaart kunt upgraden. De beschikbare bandbreedte daarvoor is met acht PCIe 4.0-lanes wel beperkt, wat eraan bijdraagt dat de 8000G-cpu's het in games met een losse videokaart niet halen bij de prestaties van de normale Ryzen 7000-serie. Ben je zo'n upgrade nu al van plan, dan zou ik overwegen om toch voor een regulier Ryzen-model te gaan, mits je tot die tijd toe kunt met de mindere igpu-prestaties.

Op papier even duur, in de praktijk toch prijzig

Op papier zijn de adviesprijzen ten opzichte van de 5000G-cpu's vrijwel gelijk gebleven. In de praktijk betaal je toch een pak meer voor een 8000G-systeem, omdat de 5000G-processors in de loop der tijd bijna in prijs zijn gehalveerd, en werken met minder dure moederborden en goedkoper DDR4-geheugen. Op dit moment zijn ze daarom slechts voor een kleine niche interessant, maar als we voor de 8000G-cpu's een vergelijkbaar prijsverloop gaan zien, zal die groep snel groter worden.

Vanuit technisch oogpunt zijn de Ryzen 8000G-processors echter zonder meer interessant en op dat punt hebben we nu ook nog niet alles gezien. We hopen snel ook de Ryzen 5 8500G te kunnen testen, die als eerste desktopprocessor de meer op efficiëntie gerichte Zen 4c-cores bevat. Kijkend naar de toekomst zou ik AMD aanraden om het ontwikkeltempo van zijn apu's op te voeren. Een goede technische reden waarom we deze 8000G-cpu's niet al medio vorig jaar konden kopen, is er niet. En aangezien Intel van plan is om zijn volgende generatie desktop-cpu's van snelle Arc-igpu's te voorzien, wordt de voorsprong van AMD op grafisch vlak niet meer zo vanzelfsprekend als hij lange tijd was.

Reacties (157)

157
157
64
3
0
83
Wijzig sortering
Excuses dat we met deze review iets later zijn dan sommige collega's - we hadden om drie uur vanmiddag nog wat losse eindjes en doen het liever goed dan snel. Hopelijk vinden jullie het een toffe review met alle extra tests van de igpu, Fluid Motion Frames en geheugenscaling!
Waarom is er geen vergelijking met echte GPU's? Zit het bijvoorbeeld in de buurt van een 1050Ti?
Omdat tijd, helaas ;). Inmiddels hebben we twee ​videokaarten getest in alle games en toegevoegd aan de grafieken op pagina 9, namelijk de AMD Radeon RX 6400 (+- 130 euro) en de Nvidia GeForce GTX 1650 (+- 160 euro). De 1050 Ti lijkt me niet meer zo relevant, want die wordt niet meer verkocht. Enjoy!
Ik mis nog conclusie update. Van wat ik zie, zelfs een goedkopste losse GPU is altijd beter?
definieer beter.

sneller in games?

lagere power? (in het bijzonder "IDLE" aan de muur van geheel systeem)

features (decompression, upsampling technieken)...

er zijn zoveel manieren om "beter" te definiëren. Ik zou niet enkel scheren op hoeveel FPS. Top performance is niet het enige dat telt.

Ook is de vraag *welke* performance relevant is ("wat doe je ermee").

[Reactie gewijzigd door bjp op 22 juli 2024 14:12]

Een losse gpu maakt het systeem op ze snelst alles reageert net even sneller.
tja maar verbruikt ook meer... dus het is terug wat ieder als 'beter' beschrijft :)
Klasse! Erg interessant perspectief. In sommige gevallen is het verschil behoorlijk groot, maar bij andere games dan weer minimaal.

Ik denk dat AMD hier een leuke baseline heeft neergezet. Ware het dus niet dat de chips nog relatief duur zijn.

Zolang een goedkopere CPU met die basis GPU’s betere en vooral consistentere prestaties neerzet, voor dezelfde prijs, zal dat al snel de voorkeur hebben. Zodra de 8700G slechts een paar tientjes duurder is dan een 7700, heb je wellicht wel een case.
Vraagje. Als ik een pc koop met deze processor heb ik dan nog een grafische kaart nodig?
Dat ligt eraan (zie alle benchmarks) wat ga je ermee doen ?
Office gebruik etc en 1080p medium / low gaming is het niet nodig, als je betere graphics wilt is het aan te raden, maar dan ben je wellicht met een andere setup (cpu + gpu) goedkoper uit ;)
Dennis, dus ik kan hiermee Diablo of Baldurs gate spelen? Uiteraard ook voor Office doeleinden en surfen 90%.
Dat is zeker mogelijk, houd er dan wel rekening mee dat je niet alle grafische settings op max kunt zetten, of dan een hele lage fps hebt, low tot medium settings op 1080p zou te doen moeten zijn.
Check anders nog een aantal youtube reviews :)
Bedankt. Ga het zeker uitproberen!
je kan de testresultaten van deze iGPU gewoon naast die van een 1050Ti leggen en zelf vergelijken
Op een 1050Ti ga ik geen Cyberpunk spelen.

Voor mij zegt dit review niet of ik hiermee de e-sports titels kan spelen, of fortnite, of BG3 of eendert welk van de niet GPU intensive games.

Dit is een Punto nemen en laten zien hoe ie in een veld presteert naast een Land Rover.

Voor anderen misschien een goed review, maar mij zegt dit helemaal niets. Bijna. Geheugen impact vond ik interessant.
Dat was presies wat mij ook opviel. Lijk me één van de belangrijkte onderdelen. Hoe verhoud die zicht tot losse videokaarten.

Nu is die review voor mij redelijk nutte loos.
Ik vind dit soort reacties erg bot. Alleen maar roepen: waarom dit niet en waarom dat niet? Het mag wel wat vriendelijker wat mij betreft, ook als je een valide opmerking hebt.
Ik vind deze reactie wel realistisch.

Wie koopt een product zoals een 8700G? Mensen die een systeem willen bouwen zonder dedicated GPU.
Wat willen die weten? Hoe staat het met deze iGPU versus de huidige low end dedicated GPU's en bijvoorbeeld de intel tegenhangers?
Hoe belangrijk is de snelheid van je werkgeheugen? Hoe ver kun je die iGPU pushen ten opzichte van de laptopvariant?
Je wilt weten of games speelbaar zijn met de iGPU. Ze hebben ditmaal uitgebreidt de iGPU getest (itt de 5600g/5700g review). Reviews over midrangevideokaarten staat het internet (en tweakers) vol mee dus dat vergelijk kan je makkelijk zelf maken.

Werkgeheugen wordt uitgebreidt getest in de review? Alleen overclocken etc niet, maar dat doet tweakers standaard nooit.
Nee, omdat werkgeheugen duidelijk veel invloed heeft op de performance van de igpu wil je meer dan alleen 6400 MT/s weten. En je zou willen weten of er ergens een limiet zit qua performance winst. Je hebt geheugen dat veel hoger gaat dan 6400 MT/s.

En qua gaming performance zou je een test willen zien met exact hetzelfde systeem VS een aantal dedicated low end gpus, niet een 4090..wat is hier de usecase van.
En dan wil ik niet naar een andere website, is dat niet het idee van een degelijke review?

[Reactie gewijzigd door Xiranhi op 22 juli 2024 14:12]

Ik zou serieus wel graag nog 6000 MT/s erbij getest zien worden daar waar 6400 groot verschil maakt. Dan kun je ook zien in die vijf games waar er groter verschil zit, of er redelijkerwijs een sweet spot is, of dat performance nog altijd vrijwel lineaire scaling laat zien op dat punt. Dat is vijf games op één geheugensnelheid erbij die het artikel zelf al noemt, en je hebt daar een stuk meer inzicht. Zit dat er nog in. @Tomas Hochstenbach , of heeft de testopstelling alweer ruimte moeten maken?

[Reactie gewijzigd door OruBLMsFrl op 22 juli 2024 14:12]

Daarom had ik mij ook dik gedrukt. Ik zeg niet dat die nutteloos is. Ik zeg dat die voor mij nutteloos is.

Het is dus ook niet bot bedoeld, maar simple een feit wat ik ondervind.

[Reactie gewijzigd door AndreStarTrek op 22 juli 2024 14:12]

Verwar je mening niet met een feit. Het voelt voor jou misschien heel sterk, maar daar blijft het ook bij.

Feit
"Een feit is een gebeurtenis of omstandigheid waarvan de werkelijkheid vaststaat, doordat het ofwel zintuiglijk waargenomen ofwel instrumenteel gemeten kan worden.

Een feit moet met objectieve waarnemingen vastgesteld en getoetst kunnen worden."

Wat jij (onder)vind is geen feit, gezien het vorige. Het is slechts een mening en die kan je achterwege laten of op een positieve manier verwoorden, zodat je ook wat constructiefs bijdraagt hier.

OT: Leuke review en ik houd deze in de gaten. Ook al naar de 5600G en 5700G gekeken, maar toen kwam AM5 al om de hoek.

[Reactie gewijzigd door Ex Nunc op 22 juli 2024 14:12]

Verwar je mening niet met een feit. Het voelt voor jou misschien heel sterk, maar daar blijft het ook bij.

Feit
"Een feit is een gebeurtenis of omstandigheid waarvan de werkelijkheid vaststaat, doordat het ofwel zintuiglijk waargenomen ofwel instrumenteel gemeten kan worden.

Een feit moet met objectieve waarnemingen vastgesteld en getoetst kunnen worden."

Wat jij (onder)vind is geen feit, gezien het vorige. Het is slechts een mening en die kan je achterwege laten of op een positieve manier verwoorden, zodat je ook wat constructiefs bijdraagt hier.
Dat de review voor hem nutteloos is, kan wel degelijk een feit zijn. Je kan vaststellen en toetsen of de review de informatie biedt waar @AndreStarTrek naar op zoek was. Zo niet, dan is de review voor hem feitelijk nutteloos. Feit en mening zijn niet hetzelfde, maar ze sluiten elkaar ook niet uit zoals jij suggereert.
Mag jij mij vertellen hoe het nut voor hem objectief vast te stellen is.
Dat is niet objectief vast te stellen. Want dat is wat een mening is.

Een mening is een perceptie van iets en iedereen heeft een andere perceptie en dus andere mening.

Dus het zou heel knap zijn als je dat opjectief zou kunnen vast stellen.

Verder was mij opmerking één waar ik een feit stelde dat het deze data miste en in mijn mening voor mij de review nuttenloos maakte. Ik heb in mijn reactie nog positie of negatief gereageerd. Ik heb alleen mij bevinding gedaan en wat een ander daar bij voelt, daar heb ik geen invloed op.
Dat heb ik net gedaan. "Je kan vaststellen en toetsen of de review de informatie biedt waar @AndreStarTrek naar op zoek was. Zo niet, dan is de review voor hem feitelijk nutteloos."

Zo ingewikkeld is dat toch niet? Je vraagt Andre welke informatie hij zoekt, je kijkt in de review of die informatie erin staat, en dan weet je of de review voor hem nuttig is of niet.

Ik ben op zoek naar een boorhamer. Je loopt bij de lokale bakker naar binnen, vraagt of hij een boorhamer te koop heeft, en vertelt mij of een bezoek aan de bakker nuttig is of niet. Jij kan toch wel objectief vaststellen of die bakker ook boorhamers verkoopt? Of is dat te moeilijk?
Dan nog is het geen feit, maar een persoonlijke mening. En zijn mening heeft hij duidelijk verwoord, alleen zijn mening "feit" noemen is onjuist.

Dit is goed samengevat:

"Een feit is iets dat waar is, een feit kun je meten. Het is 24 graden! Een mening is wat je ergens van vindt.".

of

"Een mening is geen feit. Het is een persoonlijk oordeel over hoe de feiten zich verhouden tot je overtuigingen."

Maw; de dingen die je noemt en er niet instaan, kan kloppen, dat zijn dan feiten. Dat het voor jou dan nutteloos is, is geen feit, maar een persoonlijke mening.

[Reactie gewijzigd door Madrox op 22 juli 2024 14:12]

Als ik van Rotterdam naar Utrecht moet en er stopt een trein die naar Amsterdam gaat. Dan is het een feit, dat ik niks aan die trein heb. Een feit hoeft niet altijd voor iedereen te gelden, alleen of het waar of niet waar is.
Dat maakt die trein nog niet waardeloos, alleen voor jou dan. Gelukkig rijdener meer treinen
Dat is toch wat ik schreef, dat die nutteloos voor mij was. Ik heb niet gesteld dat die nutteloos voor iedereen was.
Maw; het is een feit voor jouw persoonlijk. Niet een vaststaand, onomstotelijk feit voor iedereen.
De bal is rond = feit. Onomstotelijk, voor iedereen.

Dat die trein voor jouw geen waarde heeft, is meer een gegeven ipv een feit. Dat lijkt me beter verwoord.

[Reactie gewijzigd door Madrox op 22 juli 2024 14:12]

Ik lever twee huizen op en ik geef jou de sleutel van de buren bij het opleveren. Dan kan jij niet in je huis, dat is een feit. Maar volgens jou redenering is dat niet zo, want je buren hebben wel wat aan jou sleutel dus dan is het alleen een mening dat je niet in je huis kunt.

Als die trein mij niet naar Utrecht brengt dan is dat onomstotelijk een feit. Vervolgens bezeer mijn mening op dat feit, dat deze trein nutten loos is voor mij.

En dat zelfde gold voor mij ook voor deze review, iets wat ik zocht in de review zat er onomstotelijk er niet in en dat is een feit. Daar door had ik er niks aan en dat is een mening gebaseerd op een feit. Dat vervolgens en andere wel er iets aan heeft, staat los van mij.
Maar de reactie is redelijk nutteloos want daar heeft namelijk niemand wat aan terwijl er genoeg mensen zijn die wel uit de voeten kunnen met de info die de review geeft. Daarbij kun je met de geleverde info, de resultaten van de vorige generatie én wellicht andere reviews echt wel een slag doen naar de performance van de gevraagde games. Daarnaast staat in elke review wel iets niet wat je ook graag had willen weten, er kan tenslotte niet alles worden getest.
Maar feiten die je ondervindt kan je toch ook vriendelijk brengen? Bijvoorbeeld: 'Mooi dat deze processor gereviewd is. Wat ik persoonlijk mis is ...'
"Het is dus ook niet bot bedoeld, maar simple een feit wat ik ondervind."

Wat je probeert te zeggen is heeft niets met feiten te maken. Een feit is een gegeven, iets wat vaststaat.
Wat je eigenlijk beter kan zeggen; is: "Het is dus ook niet bot bedoeld, maar simpelweg wat ik ervan denk".

Of, "hoe ik het ervaar". Het blijft immers jouw persoonlijke mening.

btw: zelf heb ik er weinig moeite mee. Het is vrij simpel om uit te zoeken hoe een losse videokaart presteerd met bijv. een 7600 cpu. Trek of tel daarbij op het prestatieverschil van de cpu's en je weet wat een losse kaart doet tov de igpu. Je kan nou eenmaal niet altijd alles op een presenteerblaadje aangereikt krijgen.

[Reactie gewijzigd door Madrox op 22 juli 2024 14:12]

Geen excuses nodig hoor!
Leuke review en het tekst leest prettig.
de geheugenschaling erbij is top.

alleen de conclusie van de PCI-e lanes is overdreven in de review voor mij, dit vormt pas zelfs een bottleneck vanaf 3080.. dat is toch al een redeljik zware GPU als je weet dat dit een low budget oplossing is (ook al is helaas de APU met 8 cores eigenlijk wat te duur)

dan kom je al snel op een CPU+low end GPU combo die sneller is als je gaming focus legt, maarja, voor mij zijn deze APU geen gaming focus.... dus velen nemen hier een foute positionering in.
Dit ook al gezien: https://www.youtube.com/watch?v=MFzegmwHxPM ? We Found Problems: AMD Ryzen 5 8600G & R7 8700G APU Benchmarks & Review
Wat wil je daar precies mee zeggen? Dit is een beetje een lege linkdump zo.
In deze tijd kan iedereen toch wel even een youtube linkje volgen en 30 seconden kijken? (want het verhaal zin in de eerste 30 seconden) Maar goed uitgeshreven en van een ander site:
The Ryzen 8700G and 8600G APUs have encountered issues with buggy firmware causing unnecessary throttling, but AMD is working on a firmware update to resolve the problem
As it turns out, AMD’s Skin Temperature Aware Power Management (STAPM) feature is triggering unnecessary throttling in the APUs (via Neowin). STAPM was developed by AMD to ensure that devices never reach high temperatures by throttling performance when necessary. However, firmware errors now result in a STAPM limit going into effect after a short burst of power. It also seems that the throttling is not only impacting mobile chips — desktop APUs appear to be affected, too, as reported by gamers experiencing the problem. When informed of the issue, AMD said in a statement to YouTube reviewer Gamers Nexus that it is working on a firmware update to resolve the throttling. Specifically, the company said it intends to eliminate the STAPM limits causing the problem.

[Reactie gewijzigd door ronaldvr op 22 juli 2024 14:12]

Offtopic:

> In deze tijd kan iedereen toch wel even een youtube linkje volgen en 30 seconden kijken?

Met het youtube-vertragingsbeleid bij gebruik van een ad-block of soms zelfs firefox?
"In deze tijd kan iedereen toch wel even een youtube linkje volgen en 30 seconden kijken"

Nee.

Als je reageert wil je schijnbaar iets zeggen. Neem dan ook even de moeite om dat te doen. Linkjes spammen kan een bot ook.

Reacties kan ik scannen, in 3 seconden kan ik beoordelen welke kant het op gaat, of ik het interessant vind, en zo kiezen welke reacties ik wel en niet wil lezen. Bij filmpjes moet ik maar afwachten of het punt na 30 seconden komt (al 10 keer trager dan in tekst) of na 30 minuten, en dan zijn er nog 20 andere filmpjes die ik ook had kunnen kijken. En dan nog ladingen advertenties er tussendoor. Ik ga er gewoon niet aan beginnen.
Thomas.
Heb je (hebben jullie) toevallig ook een indicatie voor het idle verbruik van het complete systeem met de 8700G? Ik begrijp dat dat platform afhankelijk is, maar ik zie overal belachelijk hoge nummers 40-60W range.
Als dat niet onder controle gebracht kan worden met bios of driver updates dan is deze generatie APU's volkomen overbodig: voor een power efficient systeem kan je dan namelijk beter voor een systeem gaan op basis van een laptop APU (zoals in de Chinese mini's) en voor alle overige taken voor een goedkope CPU + losse GPU

EDIT: Ik zie dat deze vraag deels hieronder is beantwoord. Maar totale systeem metingen blijven nuttig ondanks dat ze niet zuiver zijn. Het is wel wat de compu uit het net trekt. En m'n HM80 komt in idle niet boven de 10W uit

[Reactie gewijzigd door vladimirN op 22 juli 2024 14:12]

Ik mis de vergelijking qua prestaties met een 7840/8840 780m, ik ben benieuwd wat dat beetje extra TDP doet qua graphics en vooral mis ik een vergelijking met een 3050 en 1060.

Ik snap niet waarom je een 8700g in combinatie met een gpu zou willen testen.
Inmiddels zijn er op youtube genoeg testen te vinden.

Het ziet er op dit moment dat een GTX1650 in de meeste gevallen toch echt wel een stuk sneller is.

De gtx1650 en gtx1060 ontlopen elkaar niet mega veel.

Maar goed, echt interessante vergelijkingen heb ik nog niet gezien.
Behalve dan wat je voor hetzelfde geld zou kunnen krijgen nu.

Wat ik een beetje vreemde invalshoek vind. De 8700G en 8600G zijn namelijk bedoeld voor compacte en zuinige systemen.

Ik ben eerder benieuwd wel GPU ongeveer echt gelijk presteert.
Hoe doet bv een rx6400 het tov de 8700g.

Daarnaast ben ik erg benieuwd hoe deze het gaan doen met bv de Yuzu emulator.
Daar schoot de 5700G nmlk toch net een haartje tekort.
Het zegt natuurlijk niet alles, maar ik heb wat 3DMark Night Raid Graphics-scores bij elkaar gezocht en dat geeft wel enig inzicht:
Nvidia GeForce RTX 3050 - 70.000 punten
AMD Radeon RX 6500 XT - 65.000 punten
Nvidia GeForce GTX 1650 - 44.000 punten
AMD Ryzen 7 8700G @ DDR5-6400 - 38.161 punten
AMD Ryzen 7 8700G @ DDR5-5200 - 31.298 punten
Nvidia GeForce GTX 1050 - 28.000 punten
AMD Ryzen 7 5700G - 17.340 punten
AMD Ryzen 5 5600G - 16.428 punten
AMD Ryzen 5 3400G - 15.246 punten
Nvidia GeForce GT 1030 - 15.000 punten
Intel Core i7-14700K - 12.483 punten

Ik zou zeggen, een duidelijke stap qua iGPU rekenkracht ten opzichte van wat we jarenlang gewend waren, maar nog niet echt vergelijkbaar met moderne instapvideokaarten - hooguit met die van enkele generaties terug.

EDIT: We hebben vandaag zelf twee ​videokaarten getest in alle games en toegevoegd aan de grafieken op pagina 9, namelijk de AMD Radeon RX 6400 (+- 130 euro) en de Nvidia GeForce GTX 1650 (+- 160 euro).

[Reactie gewijzigd door Tomas Hochstenbach op 22 juli 2024 14:12]

Hallo Tomas.
Ik weet niet of jullie al op de hoogte zijn van het feit dat er bij de 8000 apu's iets mis is. GN heeft er een video over gemaakt. Het gaat om een verkeerd werkend software profiel wat voor de handheld is bedoeld en de test dus beïnvloed. Kijk ff de review op GN van de apu's....
Interessant, ik heb het net even bekeken. Ik kan zijn 'probleem' (het teruglopen van de kloksnelheid op de 8700G van +- 4.6GHz naar +- 4.2GHz na 2 minuten) echter niet terugzien in onze data. Bij ons blijft de 8700G ook in een 15 minuten durende all-core load netjes naar gemiddeld 4,66GHz boosten, en ook het stroomverbruik blijft continu hetzelfde. Wellicht een issue dat specifiek het door hem gebruikte ASRock-moederbord treft?
Of dat jullie een handpicked review sample hebben gekregen?
Steve heeft het in zijn video er specifiek over dat het om een firmware/AGESA issue gaat die je kan "overrulen" met PBO. Waarschijnlijker dat MSI dit zelf gefixed heeft in de BIOS door default de fix toe te passen zoals GN ook heeft gedaan.
Bedankt! :)

Dat is toch wel zo'n 40% meer tov 5700G, wat redelijk goed lijkt te schalen met andere ingame benchmarks.

Ik ben zelf niet zo negatief over de resultaten als je kijkt hoe compact je het kunt bouwen.

Ook wel benieuwd naar de prestaties tov de 7940hs ed! :)
Bedankt! :)

Dat is toch wel zo'n 40% meer tov 5700G, wat redelijk goed lijkt te schalen met andere ingame benchmarks.
Van 17340 naar 31298 (of 38161 als je optimistisch bent) is 80% verbetering, niet 40% ;) Het is net geen verdubbeling, wat best knap is. Voor een NUC-achtige computer onder je TV niet heel slecht, daarmee kun je best leuk gamen als je niet de ultimate graphics instelt.

Maar dan moet je het wel echt voor de compacte formfactor doen, want voor hetzelfde geld en een discrete GPU heb je betere prestaties.
Dat is natuurlijk wel enkel gebaseerd op de huidige launch prijs.
Vaak zakt die toch nog wel wel flink in elkaar.

Vaak zakt de prijs zeker nog 1/3.

Daarnaast kijk ik dan ook vooral naar de 8600G.
Het verschil met de 8700G is namelijk wel minimaal.

De unieke use case leek bij vanaf de 2200G/2400G al vrij evident 😉☺️
Ik heb wat video's van ETA prime erbij gehaald:

Nightraid graphics
7840u +/- 35000 (+/- 38000 in GDP win max 2 met 7500 MT/s LPDDR5X)
7840hs +/- 38000
8700g (waarde hierboven) +/- 38000

De hogere TDP lijkt niet heel veel te doen, sneller werkgeheugen wel. Daarom was ik ook zo benieuwd wat geheugensnelheden van 7600+ MT/s zouden kunnen doen voor mini pc's. SODIMM geheugen wat gebruikt wordt in van die mini pc's met de 7840u/7840hs gaat niet veel hoger dan 6400 MT/s vaak.
Volgens een aantal reviews lijkt de 8700G amper op te schalen met sneller geheugen.

Het verbaast mij dat de 8700G weinig tot helemaal niet sneller is dan een 7840hs.
De RX6400 haalt i.c.m. de i7-12700F ongeveer 39.000 punten (EDIT: overall score, niet graphics score)

https://www.anandtech.com...-affordable-nuc-extreme/6

[Reactie gewijzigd door Rutgertje op 22 juli 2024 14:12]

Ze zeggen het niet erg duidelijk, maar van wat ik begrijp is dat een totaalscore en geen graphics score.
My bad! Op de 3D Mark site zie je dat de RX6400 inderdaad ver boven de 50.000 uitkomt.

https://www.3dmark.com/se...minCpuClock=&maxCpuClock=

Dat betekent dus dat de 8700G, zoals de review al omschreef, echt niet meekan met de zelfs de budgetkaarten.
Techspot heeft met DDR5-7200 getest en de performance van de 8700G stijgt tussen 5200 - 6400 en 6400 - 7200 ongeveer net zoveel. Tel dus gerust met DDR5-7200 (wel 2 sticks x 16 Gb !) gerust nog eens bijna 7000 punten erbij. Dus 45.000 punten met Dan zal het dus wel op de performance van de GTX 1650 uitkomen of bv een RX6500XT in een PCI3.0 slot.
Zo werkt het niet! Als je boven de 6400MHz gaat zal je geheugen in Gear 2 mode draaien, dit doet de performance boost weer teniet en maakt het soms zelfs erger. HUB heeft het getest en zegt ook dat meer dan 6400MHz niet aan te raden is omdat performance nauwelijks toeneemt maar prijs wel.
Bij Techspot schaalde de totale performance juist wel met de DDR5 snelheid ook boven de 6400Mhz , maar dat was wel de test met de 4090 zie ik nu. Het zijn nogal veel grafiekjes dus ik had er snel doorheen gescrolled.
Oooo HUB is Hardware Unboxed lol... ik kon het al niet vinden. Ik kan overigens geen test vinden of dit specifiek ook voor de nieuwere 8700G geldt of alleen voor de oudere AM5 CPU's ? Als de nieuwere 8700G niet bottlenecked op 6000 dan is dus en de performance van de iGPU en de CPU 'dubbelop' beter is
Ik kom wel een Reddit post tegen met
"AMD Ryzen 7 8700G Loves Memory Overclocking, which Vastly Favors its iGPU Performance"

[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 14:12]

Ik heb het hier juist voor de 8000 series, de 7000 series zijn geen garantie dat het >6000MHz doet.

In de video van HUB hier https://youtu.be/Ye60Wf8lUt8?si=jv6OTsXvUhmE6HmI&t=621 kan je de performance zien bij verschillende kloksnelheiden.

Beetje terug in de tijd voor motivatie.

Je quote klopt, tot je naar Gear 2 moet. Dus niet doen zoals tweakers en testen/draaien op 5200MHz, maar zo hoog als je kan krijgen in Gear 1. 6000MHz is een "affordable" option die je ~96% van de performance geeft en gegarandeerd gaat werken. 6400MHz is al wat prijziger en wat meer "risky" als in IMC kan het mogelijk niet trekken.
You link laat in Fornite zien dat het iig in sommige scenario's dus wel performance winst oplevert?
Soms wel, soms niet. Ik pakte de eerste game die ze gebenched hadden. Kijk ff video of seek er een beetje doorheen.
Als ik techspot goed begrijp is het dus de 8700G vergelijkbaar met de 6500XT maar dan wel met minder stroomverbruik. Dat is dus sneller dan de 1060 en flink langzamer dan de 3050. Maar ik denk dat het aardig een PS3 kan emuleren en oudere consoles dan dus met gemak.
Qua prestaties zit een 8700G nu ongeveer op een 1050ti qua grafisch vermogen. Een 6500XT is ver weg. (als je naar nightraid graphics kijkt)

[Reactie gewijzigd door Xiranhi op 22 juli 2024 14:12]

Ah... ik heb de Techspot cijfers nog eens bekeken en daar waren de benchmarks gelijkend op het moment dat de 6500XT in een PCIe 3.0 slot wordt gestoken. Je hebt dus gelijk dat het niet in de buurt komt van de 6500XT in een PCIe 4.0 slot. Ik vind trouwens het verschil van 10% in performance bij gebruik van DDR5 5200 en DDR5 7200 in het systeem best groot. Dat zijn dus op 32Gb geheugen nog eens 40 euro meerkosten als ik na de goedkoopste opties voor beide DDR5 snelheden kijk.
Maar dus blijkt maar weer hoe jammer het is dat Tweakers (en veel ander reviewers) geen aandacht heeft besteed aan een benchmarkvergelijk tussen een eenvoudige CPU + veel gebruikte discrete midrange videokaarten en een 8700G systeem. Dat komt iig de marketingafdeling van AMD erg goed uit dacht ik zo ;)

[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 14:12]

De 1060 is intussen echt niet meer geschikt om mee te gamen. Kreupele drivers en simpelweg te weinig rekenkracht.

De 8600G zou ongeveer even snel moeten zijn als een 1060 6GB.

https://www.tomshardware....600g-igpu-benchmarks-leak
Klopt, maar het was wel een hele tijd de benchmark voor low-end graphics.
Soort van, minder dan dit noem je geen game pc.
De Ryzen 7 7840HS + 780M lijkt ongeveer zo’n 31000 punten te doen in 3D Mark Night Raid: https://www.3dmark.com/nr/1043438

De Ryzen 7 7840U + 780M lijkt ongeveer zo’n 26000 punten te doen in 3D Mark Night Raid: https://www.3dmark.com/nr/982987

Zo maar wat voorbeelden.

[Reactie gewijzigd door Jumpman op 22 juli 2024 14:12]

Kijk ik er over heen of mis ik de belangrijkste game benchmark : Een vergelijk tussen de nieuwe iGPU's en dus een normaal systeem met een GPU. Als ik twijfel tussen bv een 3050 met een beperkte cpu en de 8700G : Wie wint er dan? Want dat is ongeveer hetzelfde budget!
(Helemaal als je een stapje terug doet naar AM4 en een losse GPU)

[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 14:12]

Zie techspot.com voor een vergelijking met een Core i3 12100 met een RX 6600. Dat presteert een stuk beter voor hetzelfde geld.
Bedankt ik zal er eens kijken! Valt me een beetje tegen van Tweakers dat men blijkbaar niet kan bedenken dat zo'n scenario interessanter is dan een 8700G met een RTX 4090 ;-)
edit : Als ik het daar goed begrijp valt dus de 8700G het beste te vergelijken met de RX6500XT dus idd flink langzamer dan de 3050 die weer langzamer is dan de RX6600

[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 14:12]

Valt me een beetje tegen van Tweakers dat men blijkbaar niet kan bedenken dat zo'n scenario interessanter is dan een 8700G met een RTX 4090 ;-)
Dat was een CPU vergelijk en geen GPU vergelijk. Door een RTX 3090 te gebruiken (op full hd dacht ik) kan je de GPU bottleneck vermijden en de CPU vergelijken.

Los van dat mis ik idd wel een GPU vergelijk. Losse low end GLU kaarten VS de iGPU van deze twee cpu’s. Ik vermoed dat veel mensen in het aankoopproces deze iGPU ook willen afzetten tegen een low end losse kaart bij de aankoop van een Full HD game pc.

Voor de fun kan je zelfs nog de Apple M3 lijn meenemen.

Techspot heeft zoals hierboven het wel met een low end GPU vergeleken en hun conclusie was dat de iGPU eigenlijk geen goede value for money is als CPU en GPU.

“the Core i3-12100F and Radeon RX 6600 can deliver over twice the gaming performance”
If it's for general computing, then the 8700G is overkill, and if it's for gaming, there are significantly better hardware combinations available for the same price, or even less. For instance, the Core i3-12100F and Radeon RX 6600 can deliver over twice the gaming performance as shown in our benchmarks.
The Core i3-12100F combo is also superior for video production work, given how heavily GPU-accelerated those workloads are now.
So, while the 8700G is technically impressive, at $330 it's not going to appeal to the vast majority of consumers. Our focus is on gaming, and we can confidently say that the 8700G is not a good investment for gaming.
https://www.techspot.com/review/2796-amd-ryzen-8700g/

[Reactie gewijzigd door Coolstart op 22 juli 2024 14:12]

Als je dus in de benchmarks van techspot kijkt dan zie je opvallend veel resultaten van de 8700G en RX6500XT overeenkomen en dat lijkt me dus een goede vergelijk mogelijk maken met andere discrete videokaarten.
Edit : Het blijkt dus dat om een RX6500XT in een PCIe 3.0 slot ging. In een PCIe 4.0 slot is de RX6500XT echt teleurstellend voor de 8700G sneller.

[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 14:12]

Wat betere gameprestaties inderdaad, maar véél trager wat betreft de CPU.
Verder is het ook een dood platform. CPU upgraden heeft met die GPU nauwelijks zin, en de GPU upgraden met dezelfde CPU ook niet.
In de 8700G kan je een leuke GPU stoppen eventueel later.
Hmmm raar om Am4 een 'dood platform' te noemen terwijl er nog een nieuwe CPU voor in aantocht is.(nl de 5700X3D) Zeker in gaming is het AM5 aanbod ook niet zo verschrikkelijk veel sneller. Vergeet niet dat er welgeteld 5 AM4 CPU's met een 4090 in de benchmarks boven de 8700G uitkomen.
Ik reageer op Roland78 en die heeft het over een Core i3-12100F. Nergens heb ik het over AM4.
Maar ook daar is een flinke cpu upgrade mogelijk.
Techspot wordt geschreven door oa de mensen van hardware unboxed dus als mensen liever een video versie willen zien kan je die ook kijken.

Het is wel een hele interessante vergelijking en het is duidelijk een betere keuze voor gaming om een goedkopere cpu en RX6800 te kopen dan de 8700G.
dan ben je ook niet echt meer het doelpubliek van deze apu.

je geeft in jouw opzet focus aan gaming. In die opzet ben je zelfs beter af met een am4 setup een 5600tray komt op eenzelfde prijs en is veel performanter. Je 12100 is veelal 50-100% trager in algemene CPU benchmarking vs deze 8600-8700G serie, enkel je GPU is sneller. Zelfs met gaming is je 12100 een bottleneck. dat hij goedkoop is, tsja goedkoop kan ook miskoop zijn.

Met een apu is het dus net andersom, je geeft focus aan algemeen prestaties met een beetje casual gaming . Het enige nadeel hier is dat 8 core ook de beste 780m GPU heeft, was zo ook al in de 5000serie. En dus te duur voor wat het is.
voor het geld van deze 8700g kun je een cpu + rx6600 kopen en meer dan het dubbele hebben aan prestaties voor hetzelfde geld.

De meerwaarde van deze CPUs is vooral in extreme kleine pcs of hele specifieke dingen.
Het stroomverbruik maakt het in dat soort machientjes wel interessant inderdaad. Maar dan lijkt me de prijs nogal stevig. Je komt dan toch al gauw boven de 600 euro dacht ik zo met de 8700G , moederbord , kast, ssd en geheugen en dan heb je minder power dan de Xbox series X of PS5 ?

[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 14:12]

Qua cpu weet ik het niet, maar qua gpu power zit je daarmee nog wel behoorlijk onder een xsx of ps5. De 780M doet 8,3tflop aan rekenkracht. De ps5 10,3 en de xsx 12tflop. Dan hebben de consoles ook nog meer bandbreedte aan boord voor de gpu’s.

Online wat zitten neuzen en dan lijkt de 780M in de buurt van een 1050ti te zitten qua performance. Dat is nog wel een hele weg te gaan naar de performance van de consoles.

[Reactie gewijzigd door Hulleman op 22 juli 2024 14:12]

Hoewel je dus duidelijk ziet dat ook de iGPU behoorlijk baat heeft bij snel DDR5 geheugen natuurlijk en het wel een flexibeler systeem met verschillende OS-en mogelijk maakt vind ik het iig voor gamers dus een slechte price/performance. En voor iemand waarvoor processingpower belangrijk zijn er snellere cpu's voor hetzelfde geld met een simpelere iGPU. 365 euro is in de buurt van een 7800X3D!

[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 14:12]

succes met de energierekening op een media server of iets dergelijks
Zover ik weet is er geen enkele dedicated videokaart op de markt waar 8 of 16 PCI-e 4.0 lanes daadwerkelijk een verschil oplevert, op de RTX 4090 na waar het verschil slechts 1 tot 2% is.

[Reactie gewijzigd door Boxman op 22 juli 2024 14:12]

at eraan bijdraagt dat de 8000G-cpu's het in games met een losse videokaart niet halen bij de prestaties van de normale Ryzen 7000-serie
dat viel mij idd ook op dat men daar zo over klaagt terwijl er geen kaart is die het vol krijgt,

Blijkbaar meet men toch een verschil met deze processor wat op een bug lijkt te wijzen.

PCIe 4.0 bij 8 lanes heeft een bandbreedt van 15.754 GB/s, of te wel in 1 sec in het geheugen van alle mainstream vid kaarten vol geschreven. alleen een 4090 duurt 1,5 sec.

Er is geen disk of proc die dat gaat vullen met die snelheid.

[Reactie gewijzigd door Scriptkid op 22 juli 2024 14:12]

Als de 6080 Ti beschikbaar wordt, kan dat een probleem geven.. 🤓 Alleen is het de vraag wie dat dan in godsnaam samen zal laten werken met een 8600G/8700G 😂
Anoniem: 294759 29 januari 2024 18:50
Wat is de reden waarom de Intel i9's niet zijn meegenomen in de prestatiescore-lijst, als de i3 en de i5 wel mogen meedoen?

[Reactie gewijzigd door Anoniem: 294759 op 22 juli 2024 14:12]

Een i9 is bijna dubbel zo duur, en je ziet met de iGPU dat het prestatieverschil tussen een i3 en een i7 al vrij minimaal is, in absolute zin. Dan heeft i9's testen in deze context ook vrij weinig zin.
Ik zie niet zo de relevantie van prijs/prestatie. Als daar naar gekeken wordt dan zou ik opmerking verwachten wat zegt dat er ook gekeken wordt naar prijs/prestatieverhouding, maar staat er niet. Dus verwacht ik dat de i9 CPU's er gewoon erbij staan.

En i9 te duur? Gewoon een random search kom ik op een i9 voor 259 bij Megekko
https://www.megekko.nl/pr...09ygtpEAQYASABEgIyAPD_BwE
Als je vindt dat prijs/kwaliteit niet genoemd is, kun je toch nog steeds wel zelf bedenken dat een i9 een volledig andere prijsrange/doelgroep is?

Je komt ook nog eens aanzetten met een i9 van 3 jaar oud, ongeveer de slechtste i9 ooit uitgebracht. Die wordt er uitgedraaid door een moderne i5, die wel in de lijst staat.

Ontopic:
Wel een erge niche-cpu. Leuk voor in iets als een nuc, maar daar hadden we de mobiles ook al voor. Ik had wel verwacht dat de monolithische chip sneller zou zijn dan de Ryzen 7000’s, maar blijkbaar wordt dat verschil al tenietgedaan door wat extra MHz en extra cache.

Een 5600/5700x met een losse gpu scoort vele malen beter op grafisch vlak en weinig minder op de rest. En prijstechnisch is het ongeveer hetzelfde, duur AM5-bord, DDR5 en dure AM5-cpu met igpu.
Inderdaad, die 11900K verdiende al nauwelijks een plek in de review van de 11-serie zelf, laat staan in een review van een CPU drie generaties later. :+
een 11900 is een i9, ja jij geeft nu net aan waar het fout gaat bij consumenten en wat marketing met jullie mindset doet...
@Tomas Hochstenbach zijn er toevallig ook full system idle metingen gedaan? Doorgaans doen AMD cpu's het niet heel slecht, maar de totale combinatie wel.
Omdat de AM5-processors op twee verschillende moederborden zijn getest, vond ik dat geen zuivere vergelijkingsgrafiek om in de review op te nemen, maar ik heb ze wel. 8600G cpu+mobo trekt 17,1W uit de voeding, 8700G cpu+mobo 22,3W. Da's inclusief een aangesloten waterkoeler, en exclusief de verliezen in de voeding (want het is vóór de voeding gemeten).
MSI is dan niet echt een zuinig mobo.

Mijn 7900X met uitvoering: ASUS ROG Strix B650E-I GAMING WIFI trekt 17W uit het stopcontact in idle. Wel met een zuinige RM550x (2021) voeding die niet meer te krijgen is.
Een GPU die maar 8 lanes heeft voor PCI en dan zo duur....AWW!

Ik zie niet in waarom je dit zou moeten kopen. Mijn ervaringen met AMD drivers met hyper RX zijn ronduit matig. En een cpu die bedoeld is voor gaming die vaak zonder upscaling niet eens 60 fps haalt op medium 1080 is gewoon niet interessant.

Koop dan een losse gpu en een andere 8 core ben je beter uit. Veel te duur als je mij vraagt voor wat je er voor terug krijgt. Het gekke is dat AMD tegenwoordig Intel dingen doet en veel mensen dat prima vinden en niets over zeggen.

En kan mij iemand even de CPU prestatie index van Tweakers uitleggen? Ik kom namelijk niet eraan uit hoe een Ryzen 9 7900X die nagenoeg in elk opzicht vaak stukken langzamer is dan de I7-14700K dan 4,2% slechts overal achterblijft.

Ik ben benieuwd op wat ze de index baseren. In ieder geval niet op prestaties anders zou de verhouding er helemaal anders uit zien...hoor dat graag van iemand.
En kan mij iemand even de CPU prestatie index van Tweakers uitleggen?
Zoals op die pagina staat beschreven, is het een gemiddelde van alle cpu-tests die we uitvoeren, behalve de igpu tests (omdat niet elke processor daarover beschikt). Dat is een onwijs ingewikkelde berekening: het gaat om tests met totaal verschillende grootheden waarbij soms lager=beter en soms hoger=beter geldt, maar dat wordt allemaal netjes gewogen en teruggerekend naar een indexscore.

Er zijn wel wat tests waarin de 7900X wint van de 14700K (o.a. Flac, diverse van de AIDA64 tests), en als de 7900X verliest is dat vaak niet met een enorm groot verschil. Nu telt elke test in de Prestatiescore even veel mee en dat is natuurlijk niet hoe dat voor veel gebruikers is - als je je pc primair gebruikt voor gamen zullen de prestaties in games voor jou veel zwaarder wegen, gebruik je je pc vooral om te renderen dan vind je vooral de uitslagen van de renderbenchmarks relevant, etc. Maar om snel een globale indruk van de algemene prestaties van een cpu te krijgen in allerlei verschillende workloads, is het een prima hulpmiddel.

Overigens hebben we ook een speciale Prestatiescore voor gaming op een losse videokaart, die vind je in deze review op pagina 10. Daarin wint de 14700K wel ruim van de 7900X.
NVT

[Reactie gewijzigd door Mindfree op 22 juli 2024 14:12]

je mist dan ook een free mind.....

PCI-e4 8 lanes is pas saturatie vanaf een 3080, bij de meeste al ver buiten scope als ik alles hier altijd lees, laat staan om dat dan ook nog eens te gebruiken als upgrade path vanuit een APU...

een APU is er trouwens voor CPU prestaties met af en toe casual gaming. Hetgeen jij en zovelen hier altijd positioneren als een budget CPU+GPU als alternatief, verschillende usecase, want dan focus je op gaming en heb je een pak minder algemene CPU prestaties die zelfs soms een bottleneck zijn in gaming (12100 etc...).

voor de rest merk ik dat je veel naar algemene theoretische benchmarks kijkt om een resultaat te bekomen, dat is duidelijk aan je voorkeur van 14700K met een walhalla aan e-cores....
365€ voor een 8 core cpu die niet echt mee kan komen met gaming is gewoon verloren geld. Als je dat niet inziet weet ik het niet.

De enige builds zijn micro builds waarin je zo een cpu zet om zo compact mogelijk te zijn om dit wellicht nog enigszins goed te praten.

Voor dit geld koop je een 7800X3D die sneller is in alles behalve "onboard gamen"
De meeste mensen die geld uitgeven en dat doe je als je deze cpu koopt zullen deze gewoon vermijden omdat er zat betere alternatieven zijn zowel van AMD als Intel.

En juist als je enkel naar real life gebruik zou kijken zoals Zip7, blender, abode enz komt de 14700K er enkel beter vanaf. Ik persoonlijk ben niet geïnteresseerd in theoretische maximums van Aida64 maar in real life benchmarks dus.

Dan zou het verschil enkel groter zijn tussen de 2 CPU's. AMD weet het gat zogenaamd te dichten dus met synthetische tests...
Het is dan ook geen gaming CPU, maarja dat is nu net het probleem van al die "mindfree" gedachten hier op tweakers.... het is gaming of het is benchmark crunching. Al de rest kan niet bestaan, het is enkel goed of slecht.

Ik heb de 5700G serie en ik overweeg nu de 8700G serie (als de prijs wat rustiger wordt) omdat de vega gpu net niet genoeg was en de memory controller in de 5000 serie nog niet zo sterk was en 3600 het zo wat is.
Systeem dat dagelijks gebruikt wordt voor algemene taken, wat brede multitask sw en virtuele machines met mogelijks eens wekelijks een uurtje gaming die geen high end verwachtingen heeft. Downsizing naar 1080p voor gaming is dus geen probleem.

Dus volgens jouw heb ik dan een slechte keuze want mijn systeem dat 12u aanstaat moet dus perse een GPU inzitten hebben die constant 10-20W idle zit te verbruiken voor geen reden. En dit type is ALTIJD een miskoop. jij vergelijkt enkel met de prijs van een CPU, dan moet je er nog een GPU kostprijs bijtellen. je verhaal klopt van geen meter, maarja dat was al duidelijk van de start. Zelfs een zeer goedkope build 12100 + 6400 ish komt aan zelfde prijs maar is een slechte koop want dan ben je gewoon CPU bottleneck en dan heb je beetje van alles maar eigenljik niks en is de focus als het ware nog altijd goedkoop gaming, daarvoor zit deze APU niet in de markt.

[Reactie gewijzigd door d3x op 22 juli 2024 14:12]

Mooie review, maakt voor mij weer duidelijk dat ik zeker weer voor een vd 2 8000G zal gaan voor mijn use case :).
Net als in de tijd dat ik voor de 5700G ging.
Heb geen haast atm, wacht wel tot ze in prijs zakken.

[Reactie gewijzigd door BHD294 op 22 juli 2024 14:12]

Leuke review! Echt fantastische prestaties voor een iGPU. De frame generation tests zijn ook heel interessant om te zien. Ik denk dat velen willen vergelijken met een discrete GPU omdat ze hopen weg te komen met alleen een APU, maar qua games zijn deze processors eigenlijk alleen geschikt voor eSports games, games voor kinderen en natuurlijk praktisch alle 10+ jaar oude AAA titels!

Kleine suggestie voor volgende reviews om een randje om de geteste CPU's in de grafieken te plaatsen, nu moest ik in elke staafgrafiek de 8600G en 8700G opzoeken en het feit dat ik niet goed kleuren zie hielp niet echt.. ;)

[Reactie gewijzigd door kikibu op 22 juli 2024 14:12]

Kan je zo`n iGPU nu ook gebruiken voor een dual monitor setup? (uiteraard tegen mindere prestaties)
Ja dat kan. Dat kon met de G chips altijd al, dat was vooral afhankelijk van moederbord implementatie. Bij Asus was het iig een BIOS instelling.

Zie bijv.

https://www.asus.com/us/support/FAQ/1045574

[Reactie gewijzigd door nelizmastr op 22 juli 2024 14:12]

waarom mindere prestaties? je gaming is toch steeds maar op 1 scherm? als gaming + streaming ding moet je deze apu niet gaan gebruiken.

Op dit item kan niet meer gereageerd worden.