Wccftech: AMD Ryzen 9 6900HX voor laptops krijgt 680M-gpu op basis van RDNA2

Er zijn vermoedelijke specificaties van een AMD Ryzen 9 6900HX-cpu voor laptops verschenen. De cpu zou acht Zen 3+-cores krijgen en over een geïntegreerde RDNA2-gpu beschikken, genaamd Radeon 680M. Een aankondiging wordt verwacht tijdens de CES.

Bronnen melden aan Wccftech dat de AMD Ryzen 9 6900HX beschikt over acht cores en zestien threads. De maximale turbofrequentie bedraagt volgens de website 4,6GHz, net als de huidige Ryzen 9 5900HX. De komende cpu moet gebaseerd worden op Zen 3+, een verbeterde versie worden van de huidige Zen 3-microarchitectuur. De processor wordt volgens de website door TSMC geproduceerd op 6nm, terwijl de huidige Ryzen-cpu's op 7nm worden gemaakt.

De techwebsite meldt verder dat de vermeende laptopprocessor gebruikt zal worden in laptops met losse laptop-gpu's van Nvidia, zoals de GeForce RTX 3070 Ti. De cpu krijgt volgens Wccftech echter ook een geïntegreerde RDNA2-gpu, zoals al langer wordt verwacht. De gpu zou 'Radeon 680M' heten, meldt de website. Het is niet bekend hoeveel compute units deze gpu krijgt. Eerdere geruchten stellen dat de aanstaande laptopprocessors maximaal twaalf RDNA2-cu's krijgen.

De processor krijgt verder ondersteuning voor DDR5-4800-geheugen, meldt Wccftech. Over DDR4-ondersteuning wordt niet gesproken. Daarnaast krijgt de cpu volgens Wccftech 4MB L2-cache en 16MB L3-cache. De website schrijft daarbij dat de komende laptop-cpu geen gebruikmaakt van AMD's gestapeld 3D V-Cache. Die techniek zou pas over een paar generaties geïntroduceerd worden in AMD's processors voor laptops.

Naar verwachting kondigt AMD zijn nieuwe laptopprocessors aan tijdens de CES. Het bedrijf houdt op 4 januari een presentatie. Ook worden de Threadripper PRO 5000-cpu's verwacht, op basis van Zen 3. Vermoedelijk toont AMD ook de Radeon RX 6500 XT en RX 6400. Die gpu's zouden op 6nm geproduceerd worden.

Vermeende AMD Ryzen 9 6900HX tegenover de Ryzen 9 5900HX
Model AMD Ryzen 9 6900HX AMD Ryzen 9 5900HX
Codenaam Rembrandt Cezanne
Procedé TSMC 6nm TSMC 7nm
Cpu-architectuur Zen 3+ Zen 3
Cores/threads 8C/16T 8C/16T
Boostclock 4,6GHz 4,6GHz
Tdp 45W+ 45W+
Gpu Radeon 680M, RDNA2 Radeon Vega 8, GCN
Cache L2: 4MB
L3: 16MB
L2: 4MB
L3: 16MB
Geheugenondersteuning DDR5-4800
Lpddr5x-?
DDR4-3200
Lpddr4-4266
Release Eerste kwartaal 2022 Eerste kwartaal 2021

Door Daan van Monsjou

Nieuwsredacteur

25-12-2021 • 12:08

58

Reacties (58)

58
56
22
1
0
26
Wijzig sortering
beetje tegenstrijdig dit, je zou deze gpu verwachten met een wat lichtere cpu zodat je een instap gaming platform hebt. De cpu zou je dan weer combineren met een externe gpu.

de enige combinatie die ik hier zou kunnen bedenken is een versie met een rdna2 gpu erbij waar bij de igpu en gpu samenwerken of waar de igpu en gpu ingeschakeld worden naar behoefte.

ik betwijfel of dat echt werkt met een non rdna2
Denk meer dat het gewoon standaard is zoals elke laptop met onboard en extern. Games pakt hij de externe videokaart en voor Windows de zuinigere 680M

Dat die 680M ook wat krachtiger wordt is geen vreemde zaak, dat is gewoon vooruitgang en voor Windows zaken (bijvoorbeeld Teams) heb je ook steeds meer grafische kracht nodig

[Reactie gewijzigd door Sinester op 23 juli 2024 00:13]

Teams en extra grafische kracht? Ik moet zeggen dat de internet verbinding eerder een beperking is dan de laptop die ik gebruik. Ik zie nog maar weinig functies die iets met grafische berekeningen beperkend zijn. Kan je dat toelichten?
Wat dacht je van (vele) video's encoden en decoden, subject isolatie tbv background blurring.
Vele? Teams hoeft alleen het magere camera beeld te encoden. Mooi als daar hardware support voor is, maar heb je echt niet 12 Compute Units voor nodig.

De overige beelden komen van de server binnen :)
De overige beelden zijn afzonderlijke streams. Alleen op VDI worden deze gecombineerd tot één video.
Mijn punt is dat je videokaart dus niet aan het zweten is om vele video's te encoden. Hooguit dat van je eigen webcam. Wat niet heel bijzonder zwaar werk is. De overige beelden komen al encoded binnen via internet en decoden daarvan is al helemaal geen big deal.
Dat is het dus wel. Zet jij maar eens een stuk of 8 video's tegelijkertijd aan terwijl je ondertussen ook twee(screensharing en je webcam) video's encode in 720p resolutie.
Verder loopt er dan dus een screengrabber, en worden er real-life effecten toegepast(background blurring).
Recent low end hardware moet hier aardig voor zweten(gpu en cpu) en een laptop vreet in recordtempo z'n batterij leeg. Is dus wél een big deal.
Waarom zet je tijdens een Teams call zoveel video's aan?? Je beschrijft nu echt een heel uitzonderlijke situatie.
Ehhh... Teams wordt o.a. gebruikt om te videovergaderen. Je weet wel, met collega's die nu thuis aan het werk zijn.

Edit:
Ik denk dat het gros van de mensen die bij een middelgrote tot grote organisatie werkt regelmatig(dagelijks /wekelijks ) met 10+ mensen in een videovergadering zit en daarbij ongeacht welke tool ze gebruiken meerdere videostreams voor hun kiezen krijgen.
Ik weet niet waar jij werkt, maar bij de organisaties waar ik over de vloer kom is het vaak onbeleefd om je gezicht niet te laten zien. Dus : vele video's en dat is niet uitzonderlijk. Sterker nog, ik ken organisaties die in het begin van de pandemie, terwijl ze een volledige Ms365 licentie hadden toch via Zoom gingen videovergaderen om 4x4 grid(tegenwoordig 7x7) echt niet genoeg was. Iedereen moest in beeld.

[Reactie gewijzigd door YoMarK op 23 juli 2024 00:13]

Right, ik doe dit elke dag.
En je hebt gelijk, je eigen scherm delen is al 1 encode taak en je webcam is de 2e.

Nog altijd begrijp ik niet waarom je vervolgens lokaal daarbovenop nog video's gaat encoden en video's gaat afspelen.

Mijn remote collega's, hun videobeeld komt reeds als encoded stream binnen, dus hoef je alleen te decoden, wat peanuts is.

Met een Intel 655 integrated GPU al probleemloos. Echt geen RDNA2 met 12 CU geweld voor nodig.
Ik heb het over alleen Teams. Niet nog iets daarbij.
2 video's encoden en b.v. 10 decoden. Je ziet dat menig computer dat prima kan, maar het zijn geen 'peanuts'.
Pak een moderne zakelijke laptop met intel integrated GPU. Uitzonderlijk als deze het langer dan twee uur vol houdt op de batterij als je flink gaat videoconferencen ongeacht of je nu Teams, webex of Zoom gebruikt. Het is gewoon zwaar, punt. Maar nu hou ik er over op.
Aha ok, dan heb ik je verkeerd begrepen. Ik ben dan dus heel benieuwd of een sterkere GPU de klus efficiënter klaart dan een simpele integrated Intel 6xx. Interessante test want het is geen benchmark waarbij sneller beter is, eerder een duurtest.
Denk dat zolang hij echt de hardematig encoders/decoder (kan) gebruiken het niet heel veel uit maakt. Maar je ziet dat dat b.v. voor effecten(background blur/achtergrond) de CPU en GPU het(volgens taskmanager) wel veel drukker krijgen.
Teams lijkt meer grafische kracht te gebruiken dan dat je verwacht. Nog niet veel, maar meer dan dat bv onze laptop op werk aankunnen is je ook nog eeen extern scherm (4k) en externe webcam (1080 @ 60) aansluit. het systeem voelt gewoon veel trager, en CPU+GPU gecombineerd hangt tussen the 90 en 100%.

Als ik OBS toevoeg om alleen een deel van het beeldscherm te delen (teams is alleen full screen, en dan is 4k te veel, of continue wisselen tussen het sharen van verschillende apps) ... lukt dan niet meer. Frame rates gaan naar een paar per seconde. Keyboard input (zelfs in notepad) heeft 5 seconde vertraging. Het is gewoon te veel van een oude chip met CPU+GPU in een pakket.

Iets meer reserve, zowel voor CPU als voor GPU is dan wel prettig.


(En ja, het werk gewoon goed als ik die zelfde combinatie draai op prive hardware. Maar dat is i9900/2070 in de laptop en 5800x/1080 in de desktop)
Dan gaat er iets mis als je laptop merkbaar trager wordt.
Duidelijk ja. Maar dit is een standaard laptop van werk met een Intel 8th gen I5-8365U

Net even op ark.intel.com gekeken.
1. Wauw. 15W voor de chip. CPU + GPU deel. Dat is goed zuinig.
2 Intel® UHD Graphics for 8th Generation Intel® Processors, Graphics Base Frequency 300 MHz., en
3. CPU freq. 1.6Ghz.

Dat is dan ook weer niet veel. Kan even goed op turbo, maar houd dat helaas niet lang vol.

En ja, ik heb of achtergrond blur, of OBS aan. En een of meerdere schermen.
Dat ik dit zeg is omdat Teams op mijn laptop vaak 100% GPU verbruikt, of dit echt een probleem is weet ik niet zeker, maar vandaar dat ik denk dat zelf Windows, Teams en ook andere programma's steeds meer grafische power kunnen gebruiken
Absoluut niet. Teams is een draak van een programma en moet onder water best wel wat processing power aan kunnen spreken om realtime video decoding te kunnen doen van meerdere streams plus synchronisatie. In een meeting met 15 tikt ook een 640p stream toch behoorlijk aan tot een fikse workload.
Het is ook handig voor on the go (als je Optimus aan hebt bijvoorbeeld, of als je de dGPU hebt uitgezet). Zo heb je meer performance ten opzichte van vorige generatie maar wel nog steeds een goede batterijduur.
Voor mij zou dit een ideale cpu met gpu zijn. Ik hoef geen snelle gpu.
Ik gebruik mijn pc voornamelijk voor programmeerwerk en compileren.
Ik zou juist deze GPU verwachten met een wat zwaardere 16-core CPU, omdat dat handig is voor productiviteit zoals softwareontwikkeling en grafisch werk. Maar dat blijft waarschijnlijk nog iets voor een jaar of twee in de toekomst.

Voor gaming laptops zou dan weer een andere afweging gemaakt kunnen worden.
Is er een rede waarom ze niet voor 5nm gaan? Die lui van dat fruitmerk laten hun chips wel op 5nm bakken, het lijkt mij dat dat veel voordelen biedt op basis van zuinigheid.
Die hebben zo'n bizar grote bak met geld dat ze één van de grootste, dan niet dé grootste investeerders zijn in nieuwe chip tech, m.a.w. ze zijn zeer grote klanten van bedrijven zoals TSMC. IIRC doen ze feitelijk hele grote aankoop-orders en pre-payments ruim van tevoren, waarbij ze dan gelijk een deel van die capaciteit inkopen. Zie ook b.v. https://www.macrumors.com...s-for-apple-silicon-macs/

[Reactie gewijzigd door Vyo op 23 juli 2024 00:13]

Ik ben benieuwd waar jij vandaan haalt dat AMD nu al lastig tegen Intels 11e generatie op kan.

https://www.cpubenchmark....ntel-i7-11800H/3907vs4358

Lijkt mij aardig: dead-even.

Bovendien wordt deze nieuwe chip Zen3+.
Hoezo? Single-core is bij Intel misschien sneller in bepaalde workloads maar zowel multicore als perf/watt zijn bij AMD beter
Het gaat bij normaal gebruik nog steeds veruit om de single core perf, sustained multicore prestaties zijn een niche (rendering of benchmark afficionado's).
Normaal gebruik bestaat niet, maar inderdaad single core heeft altijd prioriteit op meer cores, maar het is altijd een afweging van budget, use-case, en power/performance.

In een kleine behuizing als een laptop kan je wel degelijk meer baat hebben bij een AMD op dit vlak.
Er zitten wel meer voordelen aan AMD cpu's:

- Veel betere batterijduur
- Betere multicore performance
- Betere sustained performance onder stress test

Eigenlijk komt het er op neer dat Intel alleen op single core vlak beter is, maar dat de CPU qua efficiëntie hopeloos achterloopt. Dat zie je ook terug bij gaming laptops zoals de Lenovo Legion 7 waarbij je een Intel en AMD variant hebt. Qua FPS doen de laptops ongeveer hetzelfde, maar qua batterijduur moet je ongeveer de helft inleveren. Dat is toch compleet onacceptabel?

Bron: https://www.pcworld.com/a...k-performance-review.html

En dit artikel heeft het overigens over de 11980HK die enkel in hele dure laptops is te vinden (3000+ euro), waar de 5900HX al in het middensegment valt te vinden (1200+ euro).

[Reactie gewijzigd door q-enf0rcer.1 op 23 juli 2024 00:13]

Nouja als je als ontwikkelaar nu nog voor 1 thread schrijft dan heb je het niet helemaal begrepen hoor. Chrome gebruikt voor 1 tab al 11 threads zie ik net.
Ja ik zal het wel niet snappen, maak tenslotte pas 27 jaar software
Gast, 10 jaar geleden liepen de meeste spellen al beter op twéé dan op 1 core. Onder welke steen leef jij? Ik ken bijna geen enkele software die _niet_ multithreaded is. Er is een reden dat intel hyperthreading nog steeds toepast, bijvoorbeeld.
Zijn we al op het punt gekomen dat zoiets even goed werkt als een Geforce 1050?
Je vergelijkt alleen niet de juiste gpu
Dat is voor zover ik weer het hipste on-die GPU dat er nu in de winkel ligt.
We zullen ongetwijfeld snel gaan zien wat de benchmarks van deze nieuwe gaan opleveren.
De Vega RX 8 uit de 5000-reeks is sneller, heeft alleen niet zo’n hoog nummertje als Vega 11 uit de 2000-reeks.

Kleiner proces, dus hogere snelheden, maar door de geheugenbandbreedte zit er een limiet op de prestaties, dus hebben ze minder Compute Units op de core gemaakt.

Met DDR5 zou weer een grote stap gemaakt kunnen worden en met RDNA2 natuurlijk ook. Dat heeft veel en veel minder geheugenbandbreedte nodig.

Maar een 1050 is volgens die site nog steeds 47% sneller (ipv 65% van die Vega RX 11).
Zover is het allang! typ ik op mijn HP Spectre x360 15-CH van medio 2018. Er is ook nog een GH-smaak, die maakt gehakt van de GTX 1050.

[Reactie gewijzigd door jgj82 op 23 juli 2024 00:13]

Dat is een externe gpu. Hij is ook niet on-die, al is het wel op de cpu-package.

Het is dus nog steeds een externe gpu, naast de HD 630 die er ook op zit.

Bovendien zijn die dingen vele malen duurder dan eentje zonder die gpu erbij geplakt. Dit was wat dat betreft zwaar high end.

En ze hebben ook nog eens een TDP van 65-100 watt.

Dus dat ze er al lang zijn is nogal overdreven.
Eerst zien, dan geloven natuurlijk. Maar dit zou echt een geweldige ontwikkeling zijn, een 6900HX zonder dGPU zou dan zelfs redelijk bruikbaar zijn voor gaming op 165hz in e-sports titles zoals CSGO en Valorant.
Ik vind het eerlijk gezegd een beetje verwarrend dat nu na Zen 3 cpu's Zen 3+ komt net als de AMD 5xxx serie cpu's met Zen 2 en Zen 3 architectuur. Zeker bij die AMD 5xxx serie cpu's moet je heel goed oppassen of deze wel al Zen 3 zijn en je anders een 'verouderde' cpu krijgt.

Voor zover ik dan ook hierboven in de tabel kan zien lijkt het enigste verschil tussen Zen 3 en 3+ vooral de iGPU te zijn en dan ondersteuning voor DDR-5. Eerlijk gezegd vraag ik mij dan wel af wat een 'betere' iGPU voor zin heeft in een meer high-end cpu. Logischer lijkt mij dat dit wel zin heeft in meer budget cpu's zonder externe grafische kaart.

Zo heb ik een tijdje met een AMD Ryzen 7 5700G gewerkt zonder externe grafische kaart met op zich prima grafische prestaties ondanks de 'verouderde' Vega 8 iGPU. Alleen minpuntje vond ik wel dat de cpu best wel warm werd ondanks dat ik een waterkoeler gebruikte. In vergelijk gebruik ik nu een Intel i5 12600K die aanmerkelijk koeler blijft zelfs onder stress met dezelfde waterkoeler.

Daarentegen wanneer ik b.v. kijk naar de laptop die ik gebruik waarin een AMD Ryzen 7 5800H zit, dan blijft die wel weer mooi koel. Althans voor laptop begrippen blijft die cpu mooi koel dus wel apart hoe zelfs onderling binnen dezelfde serie cpu's toch zo'n verschil kan zitten.
Ik vind het eerlijk gezegd een beetje verwarrend dat nu na Zen 3 cpu's Zen 3+ komt net als de AMD 5xxx serie cpu's met Zen 2 en Zen 3 architectuur. Zeker bij die AMD 5xxx serie cpu's moet je heel goed oppassen of deze wel al Zen 3 zijn en je anders een 'verouderde' cpu krijgt.
Om het nog verwarrender te maken schijnt Zen 3+ voor de desktop geschrapt te zijn, en komt in plaats daarvan een Zen 3 met 3D V-Cache die mogelijk als Ryzen 6000 verder gaat.
Tjonge, ja, dan word het helemaal een warboel zeker voor de consumenten cpu's. Dan zit het bij Intel toch net wat logischer in elkaar maar voor hoe lang dat dat duurt blijft ook de vraag.
Anoniem: 1022589 25 december 2021 19:38
5800H / vega 8 hier die best zuinig is te krijgen met de juiste instellingen. Bewust zonder discrete graphics want hou niet van het switchen en stroomgebruik van apparte gpu. Nee die vega 8 is perfect voor wat oudere of lichtere games en is dan nog zuinig.
Met deze 6900HX en 680M vreess ik dat de efficientie een beetje overboord gaat omdat de gpu beter moet presteren en dan eigenlijk nog steeds niet okay is voor een moderne game.
Op papier lijkt het dat dit een krachtige geïntegreerde GPU gaat zijn wat heel tof is. Wel apart dat dit model APU dan juist gecombineerd gaat worden met een RTX 3070 Ti etc.

In ieder geval ben ik echt een fan geworden van mini computers. Ik heb er eentje van T-Bao, de MN35 met een R5 3550H. Als er zo eentje met een RDNA2 iGPU komt ga ik upgraden naar dat. Dan heb je gewoon een gaming console maar dan met Windows erop. Leuke tijden en hopelijk heeft de GPU tekort dan ook geen invloed op APU beschikbaarheid.

[Reactie gewijzigd door RCFProd op 23 juli 2024 00:13]

Als HP nou ook nog een keer AMD based ZBooks gaat uitbrengen...
En Z workstations als daarna de desktop cpu's uitgebracht worden.
Iemand een idee waarom die er niet zijn?
"Marketing geld" van intel? Wellicht is er ook minder vraag vanuit de zakelijke markt omdat de applicatie support op AMD niet vanzelfsprekend is en omdat beheer organisaties zo min mogelijk variabelen willen in een omgeving?

Het maakt eigenlijk niet uit hoe goed AMD het doet, wij tweakers kopen het wel maar de grote OEMs lijken er altijd weinig interesse in te hebben. Vaak vooral in een paar budget en mid range series en veel minder high end / zakelijk spul.

[Reactie gewijzigd door Rctworld op 23 juli 2024 00:13]

Applicatie support is er een van (er is zelfs software die een check doet en indien geen Intel weigert het dienst).

Dan zijn er ook gewoon contracten die soms lang kunnen duren.
Waarschijnlijk omdat er lange termijn afspraken gemaakt zijn omtrent beschikbaarheid en prijs tussen hp en Intel omdat dat toen de beste deal leek, en misschien vanuit hun perspectief nog steeds is. De gemiddelde MediaMarkt consument kijkt naar de prijs, herkent Intel en denkt een goede koop te doen.

Klant blij HP blij Intel blij en MediaMarkt blij,. En wij denken hm....
Dell doet aardig wat me AMD, in iedergeval in de server markt. De precision workstations zijn ook fijne machines.
Omdat de sales droid van Intel met zijn dure stropdas een paar hoge pieten van HP heeft meegenomen naar een duur restaurant en daar heeft lopen opscheppen over hoe geweldig zijn CPUs wel niet zijn.
Konden ze zen3+ niet op ddr4 houden?
Jammer van de nieuwe gpu naamgeving.
Ik kon de cross platform, lineair vergelijkbare prestaties van Vega altijd erg waarderen. :)
Maakte het blauwe kamp het maar zo makkelijk om hun iGP's onderling te vergelijken...

Op dit item kan niet meer gereageerd worden.