AMD introduceert eerste Ryzen-processors

AMD heeft zijn eerste Ryzen-processors officieel aangekondigd. Het gaat om drie modellen Ryzen-processors uit de 7-serie, die alle drie over acht cores en zestien threads beschikken. De processors zijn vanaf 2 maart verkrijgbaar, maar al vanaf 22 februari te bestellen.

AMD's topvrouw Lisa Su kondigde de processors tijdens een evenement in San Francisco aan en maakte de prijzen van de cpu's bekend, samen met diverse benchmarks. De drie modellen zijn de Ryzen 7 1800X, 1700X en 1700. Het bedrijf introduceert drie processors in de Ryzen 7-serie, met prijzen van 499 dollar voor het topmodel, 399 dollar voor het iets tragere model en 329 dollar voor het derde model. AMD positioneert de Ryzen 7-processors getuige de naam én getoonde benchmarks tegenover Intels Core i7-processors, waarbij de i7-6900K tegenover de 1800X wordt gezet en de 1700 tegenover Intels i7-7700K.

De i7-6900 kost ruwweg twee keer zoveel, terwijl de prestaties, afhankelijk van de werklast, vergelijkbaar zijn. Daarbij moeten de processors vooral voordeel laten zien in multithreaded applicaties en benchmarks, waar hun acht smt-cores aanzienlijke winst opleveren vergeleken met quadcore- of hexacore-concurrenten. De winst bij singlethreaded werklasten is minder groot, maar vergeleken met AMD's eigen Excavator-cores is de ipc niet met 40, maar met 52 procent verbeterd. Daarmee heeft AMD zijn beoogde doel, een ipc-winst van 40 procent, ruimschoots overtroffen.

Ryzen 7-introductieRyzen 7-introductieRyzen 7-introductie

De Ryzen-processors zijn gebaseerd op de Zen-architectuur, waaraan AMD de afgelopen vier jaar gewerkt heeft. De drie Ryzen 7-processors beschikken over acht cores met smt, waarmee het aantal threads op 16 komt. De kloksnelheden verschillen, maar alle processors zijn unlocked, zodat overklokken mogelijk is. De processors zijn vanaf 2 maart leverbaar, maar via diverse kanalen op 22 februari vooruit te bestellen. In het tweede kwartaal van dit jaar moeten nog twee Ryzen-series, de Ryzen 5 en Ryzen 3, uitgebracht worden. Die worden respectievelijk tegenover Intels Core i5 en Core i3-series gezet.

Processor Ryzen 7 1800X Ryzen 7 1700X Ryzen 7 1700
Cores/threads 8/16 8/16 8/16
Kloksnelheid 3,6GHz 3,4GHz 3GHz
Boost 4GHz 3,8GHz 3,7GHz
Tdp 95W 95W 65W
Prijs 499 usd 399 usd 329 usd

AMD Ryzen dieAMD Ryzen die

Door Willem de Moor

Redacteur

22-02-2017 • 15:00

529

Lees meer

Reacties (529)

529
518
293
11
0
173
Wijzig sortering
Hardware.info is toch iets ander van mening hoe de CPU's tegen elkaar worden gezet mbt Intel.
Ryzen 7 1800X 3,6 GHz 4,0 GHz 95W $499 Core i7 6900K ($1089)
Ryzen 7 1700X 3,4 GHz 3,8 GHz 95W $399 Core i7 6800K ($434)
Ryzen 7 1700 3,0 GHz 3,7 GHz 65W $329 Core i7 7700K ($339)

Dat geval zijn dus alle Ryzens goedkoper dan een i7 concurrent.
En wat dus blijkbaar ook overeenkomt met die slides die AMD heeft laten zien qua performance en prijs.
en de 1700X tegenover Intels i7-7700K
Edit, grappig, jullie hebben dezelfde slides, maar zetten dus de verkeerde informatie in de tekst, in de slide is duidelijk te zien dat de 1700 (non X) naast de 7700k staat :/
Admin-edit:Spelfouten en/of ander commentaar m.b.t. nieuwsposts horen thuis in
Geachte Redactie.

[Reactie gewijzigd door Dirk op 22 juli 2024 20:35]

Kijken of het ook echt zo is en dan voornamelijk kijken wat er prijstechnisch gaat gebeuren bij Intel. Blijven ze gewoon hooghartig die prijzen handhaven of beginnen ze toch te zakken.
Kortom, het is goed dat AMD er nog steeds is :) Een beetje concurrentie kan nooit kwaad blijkt maar weer !
Zonder AMD, mocht je nu voor een 7700K wss al meer dan 500 euro betalen. Als AMD ooit verdwijnt zullen er pijnlijke tijden volgen voor ons geld.
Toch denk ik ergens dat dit ook wel mee gaat vallen. Ik hoop natuurlijk van niet maar wat er gaat gebeuren in zo'n geval is dat eerder de ontwikkeling stokt zoals je nu ook een beetje zag afgelopen jaren. Als mensen geen 1000,- hebben liggen voor een processor, dan kopen ze die ook niet.

Intel gaat niet per se meer omzet of winst maken als ze hun spullen nóg duurder maken omdat de verkopen dan minder worden en de kosten worden er niet minder op omdat een fab aantallen moet maken om rendabel te zijn.

Door de gebrekkige concurrentie en relatief hoge prijzen voor top range modellen gingen er steeds minder mensen overstappen op nieuwe HW en daarom kan je tegenwoordig met een bijna 10 jaar oude Core2Duo nog prima werken.

Softwarebedrijven en internet bedrijven kunnen hun software en webdiensten immers wel zwaarder gaan maken maar als niemand meer fatsoenlijk een website kan bezoeken of programma kan gebruiken dan heeft het geen zin natuurlijk.

In feite was AMD al "dood" en nu uit de as herrezen want op de spullen die echt top range waren had Intel allang geen concurrentie meer, maar zoals ik al zei, de mensen die dat kopen worden steeds minder door de prijzen.

Kortom, dat AMD nu "terug" is, is gunstig voor de prijzen en ontwikkeling maar zonder AMD zal niet ineens alles duurder worden in het topsegment.
Was de FX reeks dan zo slecht tegenover Intel ?
Ik heb een FX-8530 al 4 jaar en die draait nog steeds vlotjes. Voor mij was dat tenminste een deftige cpu. 8 cores zonder hyperthreading. Gewoon pure kracht. En dat merk ik toch als ik 3d aan het renderen ben. Daar kan een i5 niet tegen op.
En zoals Lisa Su al heeft gezegt was amd aanwezig in tal van consoles en andere hardware toepassingen.
Niet hetzelfde als 3D renderen, maar video encoding (recoding) gaat toch stukje rapper op mijn i5 6600k (@4.3ghz) dan op mijn fx 8350 (@4.4ghz). MP3 encoding gaat toch ook al een heel stuk rapper. Scheelt natuurlijk ook 3 jaar tussen die 2 cpu's en die i5 heeft bijna 100eur meer gekost (180 vs 260 dacht ik)(en een deftig Intel moederbord kostte ook al een pak meer dan een deftig AM3+ bord).
Bij singlethreaded applicaties (meeste games bv) merk je wel dat Intel een voordeel heeft met hun sterke singlecore performance. Van Ryzen tot nu toe enkel nog maar multithreaded benchmarks gezien dus benieuwd hoe die ook in singlecore presteert. Jammer genoeg is dat nog altijd een belangrijke factor voor meesten.
Mja ik vergelijk ook de performance vs prijs. Kijk naar de I7 6900K...
Deze is 37% beter in singlecore performace vs de FX-8530.
Je zou dan zeggen wow de i7 is beter... Maar de prijs is dan ook 900€.
Dan koop ik liever een cpu van 180€ die toch maar 37% minder goed is dan zo'n geldmachine. Qua geld/performace is AMD niet te kloppen. En dat zien we terug met de Ryzen serie.
Zolang het verschil minder is dan 50 % tegenover Intel ben je goedkoper af met AMD. (Correct me if i'm wrong :) )
Hangt er gewoon van af wat je nodig hebt. Voor gamen heb je bijvoorbeeld minder aan goede multithreadscores wanneer meeste games (zo goed als) singlecore zijn. Er zijn ook mensen die gewoon het rapste moeten hebben, en dan moest je niet bij AMD zijn.
Qua geld/performance was AMD niet te kloppen, maar meesten zijn gefocused op enkel performance ("want AMD kan niet mee met Intel"). Dezelfde mensen (en het zijn er veel) gaan dan ook Intel aanraden ook al had je die totaal niet nodig. Een ander probleem is Intels greep op de OEMs; wanneer enkel Intel verkrijgbaar is of enkel Intel pcs/laptops te vinden zijn, in combinatie met de fanboys die enkel Intel durven aanraden, zorgt ervoor dat AMD gewoon nog verder in het "niet voldoende" putje valt. Hopelijks brengt deze lineup daar verandering in, maar als de singlecore performance weer slecht is gaat er niet veel verandering in komen.
(high end Intel fanboys gaan hun aankoop moeten verdedigen en veel multithreaded dingen zijn er niet voor de gewone mens (incl gamers)
het gaat niet alleen om de price/performance maar ook om hoeveel jaar je van een cpu kunt doen. ik heb een i5 4670k en die heb ik gekocht om meer dan 5 jaar te gebruiken. als ik in die tijd amd had gekocht zou ik nu al naar een upgrade moeten gaan kijken. uiteindelijk ben ik dan (bijna) even duur uit voor minder performance.
Heb al een jaar of 4 FX-8530 en kan nog steeds mee komen.
Dus het verhaal dat je naar upgrade zou moeten is onzin.
draai BF1 op ultra en geen noemenswaardige vertragingen.
De GPU is de bottleneck, CPU allang niet meer.
Ik en vrjenden (van de week word de 4e 8350 bak gebouwd)
Geheugen,mb,cpu, gpu, en voeding voor kleine 600 euro.
Zie dat maar een met intel voor elkaar te krijgen.
Dat zijn jou ervaringen.
Mijn 8530 deed toch echt een stuk onder de 6700k in bf op ultra@144hz in combinatie met een 1080.
voor een game als battlefield, die op een gloedjenieuwe engine draait die daadwerkelijk jouw hoeveelheid cores gebruikt, ja.

helaas zijn er ook games die op wat oudere engines draaien die niet heel effectief van 4 of meer cores gebruikmaken. bijv. csgo of sc2.

natuurlijk is intel duur. ik zeg niet dat het niet duur is. maar als ik toen mijn phenom II niet meer voldeed bij amd was gebleven en het was geloof ik bulldozer had gekocht, had ik minder performance gehad dan ik nu heb met die 4670k, in cs zelfs met ong. een factor 2! dat betekent dat ik dan niet zoals ik nu heb gedaan alleen mijn videokaart hoefde te vervangen om weer bij te zijn, maar dat ik ook een nieuwe cpu nodig zou hebben, iig voor cs, om een gebalanceerd systeem te hebben wat een hoge framerate redelijk stabiel draait.

bf en cod en veel andere shooters zijn nu juist voorbeelden van games die niet zoveel cpu nodig hebben, maar meer op graphics leunen. toen ik amd had draaide bf3 ook prima.

[Reactie gewijzigd door Origin64 op 22 juli 2024 20:35]

Nice, die heb ik ook een jaar of 4 gehad en altijd veel plezier van gehad.
En inderdaad, voor de prijs en de snelheid die je er voor krijgt heb je eigenlijk geen enkele Intel tegenhanger (mits je iets 2ehands koopt).

Het grote nadeel aan die FX8350 vond ik toch vooral de temperatuurontwikkeling, met name bij spellen als GTA5 en Battlefield 1. Ze draaien redelijk goed, maar je kunt merken dat de koeling flink aan de bak moet. Nu heb ik een i56500, en ik merk dat die toch wel flink wat sneller maar ook vooral veel minder warm is (kom niet boven de 40 uit). Uiteraard zit er ook vele jaren aan ontwikkeling tussen.

Als deze Rayzens goed presteren zal ik ze zeker overwegen voor een volgende built. Ik heb goede hoop.
Tja ik heb een Corsair Hydro H110, dan is die altijd koel en veel minder lawaai.
Ja, de cpu blijft dan wel koel, maar die radiator moet z'n hitte ook ergens kwijt. Ik heb ook een H110 en als ik game met mijn FX 9590 kan ik de verwarming letterlijk uitzetten in mijn bureau.
ja dat herinner ik me nog uit de tijd dat ik amd had, en 2 videokaarten. hoefde zeker geen kachel aan hartje winter, gewoon een beetje gamen en het is zo 20 graden.
Lawaai heb ik sowieso niet, ik had er een hele degelijke Noctua op zitten, maar net zoals Jefboy zegt, de koeler moet de warmte wel voldoende kwijt kunnen. Het is ook in verband met je andere onderdelen in de PC niet zo gunstig. En vind ik dat ik een vrij goede PC bouwer ben (PC met veel airflow, geen rare dingen etc.).

Opzich had ik niet direct last van de warmte, maar ik vond dat toch altijd wel een kritisch aspect bij die specifieke processor. De prestaties ben ik zeer over te spreken (mijn energiemaatschappij trouwens ook :'( )

Hopelijk zijn deze Ryzens op dat gebied ook beter, gezien de TDP's moet dat wel te doen zijn.
Volgens de specs zal dit wel een verbetering zijn.
Ik ga dan ook zo snel mogelijk overschakelen naar een lager verbruik :)
Klopt zeker deels, maar er zijn natuurlijk meer kanten. Steeds neer mensen hebben of gebruiken helemaal geen desktop of zelfs laptop meer. De behoefte aan stevige hardware is nu misschien veel lager dan 10-15 jaar geleden.

Een website zal vaak toch ook goed op de telefoon en iPad moeten draaien, dus waarom een website maken die alleen op een 1800X goed draait. Daarmee schiet je jezelf enorm in de voet als ontwikkelaar.
Mee eens maar anders werd mn verhaal zo lang ;-)

Anderzijds, websites hebben vaak ook een mobiele variant die weer heel anders is dus dat gaat niet helemaal op.
Inderdaad des te meer reden om ze te gaan steunen(AMD) en dat gaat wel goedkomen als ik dit zo zie!
Inderdaad. Ik had me al voorgenomen ook bij een 10% hogere prijs dan Intel voor dezelfde prestaties toch voor AMD te gaan. Deze ronde komt goed.
AMD zal niet zo snel failliet gaan, voor elke CPU die Intel produceert moeten ze AMD betalen voor de licentie op de X64 architectuur.
Dit vond ik een opmerkelijk gegeven. Ik wist dat AMD met de Athlon64 en de Opteron als eerste geloofwaardig op de markt is weten te komen met een 64-bit architectuur. Dat Intel dit gelicenseerd had wist ik niet. Je lijkt echter (in al mijn bescheidenheid ;) ) gelijk te hebben. TheInquirer memoreerde dit in 2013 nog eens. Het artikel stelt dat het Intel x86-64 architectuur eigenlijk een rebrand was van de AMD64 architectuur. Intels eigen architectuur (IA-64, nog gebruikt in Itanium processors) heeft hierbij het onderspit gedolven. Forbes bevestigd en nuanceert het verhaal echter wel. Er bestaat ook nog een cross-license deal tussen Intel en AMD op de originele X86 architectuur.

Als Intel deze licentierechten nog steeds trouw afdraagt is dit door Intels grotere productieaantallen in het voordeel van AMD inderdaad.
Aannemende dat
Tikfoutje neem ik aan, ik heb het aangepast in de tekst (de auteur is op dit moment bij het AMD-evenement in de VS).
Begrijp me niet verkeerd, maar ik ga geen 10 minuten filmpje zitten kijken over iets wat ik in max 10 seconde uit een kloppend overzicht kan halen (zoals HWi).
is wel een informatief filmpje, hij laat ook benchmarks e.d. zien.
en hij vertelt dat ze bij launch ongeveer 85 moederborden beschikbaar hebben!
Dat klopt, maar men moet ook in acht nemen dat hij gesponsord wordt door AMD in zijn videos, en tsja, je ziet nu veel AMD promotie. En wat is nu waar? (cherry picking)

Hoop dat het waar is iig, heb zelf nu een i5 4460, die kan naar een van de kids en zit eraan te denken om te upgraden of aan een rebuild voor mezelf.
En de Kaby Lake is imo een zware domper. Dus het zal wrs of een Ryzen R7 worden of misschien de opvolger van de Kaby Lake cpu.

Mits het een merkbare vooruitgang is op mijn huidige hardware en niet enkel onzichtbare vooruitgang die je enkel ziet in een benchmark.
Als je zijn filmpje kijkt lijkt hij toch wel vooral met meetbare argumenten te komen en dus lijkt het daardoor redelijk representatief voor de werkelijkheid. Natuurlijk moet je sowieso nooit maar 1 bron gebruiken en dus altijd even vergelijken met andere benchmarks en reviews, maar ik zie geen reden om Linus hiervoor buiten beschouwing te laten.

Sowieso lijken de huidige benchmarks het over het algemeen met elkaar eens te zijn dus er is nog geen reden om extra argwanend naar deze release te kijken.
Het zijn eenzijdige presentaties.
Bv games die op hun cpu beter draaien dan andere games. Misschien OCed.
Vandaar dat ik op 'cherry picking' kwam.
Die testmodellen zijn natuurlijk voorzien van applicaties waarbij AMD beter voor de dag komt dan Intel.

EN ook ik volg Linus en ik zie vaak genoeg "this video is sponsored' als ie weer een presentatie gaat geven waarom een bepaald merk zo goed is.
Overduidelijk reclame.

Maar maakt niet uit. ook als de prestaties wat rooskleuriger worden weergegeven (ook Intel was hier in het verleden schuldig aan) dan nog kan het een hele goede cpu worden.
Het was wel duidelijk dat Intel door gebrek aan echte concurrentie het lekker rustig aan deed en veel te veel vraagt voor nieuwe generaties met te weinig vooruitgang.
Als je het filmpje echt aandachtig bekijkt. Zegt hij ook eerlijk bij de battlefield 1 demo AMD hun battle uitkiezen. Ze hadden de r7 1700 tegen de i7 7700k kunnen vergelijken. ipv de i7 6800k(die een relatief lagere clock speed heeft). Hoe de r7 1700 het gaat doen tegen over de i7 7700k moeten we afwachten.

Dus nee hij is gewoon eerlijk Zoals het hoort.
als hij echt eerlijk was zou hij er zelf resultaten bijzetten van games die intel favored zijn.
Dat kan hij nog niet. Omdat hij daar geen toegang tot had. Dan zullen we moeten wachten tot hij zelf een chip in handen krijgt.
okay maar dan verdient het imo niet het predicaat 'eerlijk'.
Hoezo? Hij had ook ze mond kunnen houden en zeggen dat de i7 6800k veel beter is om te gamen als een i7 7700k. Binnen zijn marge is hij nog steeds eerlijk. Dat AMD wel hun battles pickt. Hij had er ook zijn mond over kunnen houden.
tenzij er een hele grote rode lijn omheen staat met daaronder de voetnoot/disclaimer [deze data komt van amd en is niet conclusive of compleet of 100% betrouwbaar] vind ik het niet helemaal eerlijk

ik vind 'choosing your battles' ook een behoorlijk amusant eufemisme voor obvious cherrypicking.

misschien stel ik gewoon hele hoge eisen hoor, ik ben wel van de harde lijn, maar ik vind het niet helemaal eerlijk. hij springt ook gewoon op de hype train terwijl het nog niet zeker is. mensen preorderen wel dingen op basis van wat dat soort vermeende autoriteitsfiguren zeggen. en ze luisteren niet allemaal naar de hele video.
er zit duidelijk een i7 6800k in. /ze mogen gewoon in het systeem kijken. En hebben het dus zelf kunnen ondervinden. Dat jij eventueel wat meer benchmarks wil afwachten is prima. geef ik je groot gelijk in. Maar om dit neer te zetten als een AMD Sponsor Video is gewoon vreemd. En binnen zijn macht is hij eerlijk.

En als mensen 350-560 euro willen uitgeven om basis van deze Video en niet de moeite nemen om de hele 10 minuten af te kijken moeten ze zelf weten.
ik zeg niet dat het sponsored is, dat is een serieuze aantijging, meer dat ik het niet objectief genoeg vind om het eerlijk te noemen. semantics, mr miles.
Maar dat beweerd de gene waar ik op reageerde wel. En ik geef aan dat hij zo eerlijk is om het picked there battles te vertellen. Iets waar hij ook zijn mond over kon houden. Dus noem ik hem eerlijk. Dat jij dat niet vind prima. Maar dat hij dan Intel games had moeten draaien op de test systemen van AMD vind ik vreemd.
nou ja als hij de cpu nog niet heeft kan hij dat niet zoals je hebt gezegd maar om een echte eerlijke vergelijking te doen moet je niet alleen amd-favored tests doen, maar ook de intel-favored tests, en de zoveel mogelijk objectieve, op allebei de platforms.

dan pas is het plaatje compleet.
HMC in 'nieuws: AMD introduceert eerste Ryzen-processors'

hier wel iemand die durft te zeggen dat het sponsored is. ik ga het zelf niet uitzoeken, ik kijk niet naar mensen die reclame tussen hun content zetten alsof het content is.
Het enige wat AMD heeft gedaan is hun(en vele andere tech mensen(zelfs de auteur van dit artikel was daar aanwezig). om te komen kijken naar een elle lange presentatie en gebruik mogen maken van hun test modellen.
uhhuh en waarom vertrouw ik het dan niet :+

oh omdat het niet heel erg transparant is natuurlijk, hun controlled environment waar jij bij gratie amd's mag komen om een cherrypicked chip te proberen die overclocked is en compleet niet representatief is voor de gemiddelde chip die ze gaan releasen. dan komt er nog bij dat ik alleen maar heel specifieke benchmarkresultaten heb gezien waarvan amd wil dat ze nu naar buiten komen.

jij bent nog goedgelovig. dat is mooi. maar ooit brand je je vingers en hopelijk stoot je je daarna niet meer aan die steen.
Ze waren helemaal niet Cherrypicked en OC. waren gewoon stock gecontroleerd. De enig die Cherrypicked en Zwaar OC waren CPU'S waar de OC'S mee aan de slag konden. En daar is ook een cine Bench world record(op 8c16t gebied). Die op 5.1ghz draaide. En het vorige record stond op naam van Een Cherry Picked Intel.

Ik zou mij eerst eens wat meer in de video's verdiepen(genoeg tech sites/tubers) hebben dit gewoon gevalideerd. Ook met de Intel kan was niet gekloot. Tenzij je ineens wil beweren dat de ene i7 7700 sneller is als de andere.
Ik zeg niet dat die Linus niet eerlijk is; je moet de boel niet gaan verdraaien en zo aangevallen voelen en zwaar in de verdediging schieten.
Het is gewoon een eerlijke conclusie.

Ik zeg enkel dat hij de schijn tegen heeft dat ie gesponsord is door AMD en er overdreven positief over is.

Waar anderen neutraal blijven en eerlijk zeggen dat het in de praktijk nog bewezen moet worden of de Zen werkelijk zo goed is als de verkoper zegt (en welke verkoper zegt dat niet?) was hij wel overtuigend aan het aanprijzen.

En als ik Youtube videos ga plaatsen met "sponsored by Intel" en ga zeggen dat die nieuwe cpu wel heel goed is (en dat kan ook zo zijn) zonder er net zo kritisch op te zijn als 99% van de posters die niet door Intel zijn gesponsored, dan mag je daar wel je vraagtekens bij plaatsen of er geen kritiek filtertje op zit.

En dan zeg ik, geef die Youtube "testers" allemaal een cpu mee en laat ze die testen.
En vandaar dat ik ook op het opliften van de NDA wacht.

[Reactie gewijzigd door Cyrusx op 22 juli 2024 20:35]

https://nl.hardware.info/...anaf-vandaag-te-bestellen

Ook de buren(zelfde eigenaar). Is anders ook aardig positief. En ook andere YouTubers zijn positief. Dus nee het is niet ineens alleen linus. En geloof me dat linus zich echt wel aan de media regels houd omtrent gesponsorde artikelen.
Zeg ik dat het enkel Linus is? Nee.
Ben ik Linus aan het aanvallen? Nee.
Ik zeg enkel dat ik gesponsorde videos en videos gepresenteerd door de verkopende partij met een korrel zout neem totdat ik neutrale reviews zie.

AMD of Intel, maakt niets uit.

Voel je niet zo aangevallen.

[Reactie gewijzigd door Cyrusx op 22 juli 2024 20:35]

Rn ik geef net aan dat het GEEN gesponsorde video is. Maar een presentatie van AMD. Dat is HEEL wat anders. Je probeerd aan alle kanten De boel te draaien. Van cherrypicking en OC systemen tot gesponsorde video's. En ik voel me verre van aangevallen hoor. Misschien had hè iets meer tijd in je eerst post moeten besteden. Want je probeerd aan alle kanten De hype tegen te gaan door cherrypicking(ze waren niets eens OC). Tot gesponsorde artikelen. Terwijl je eigenlijk gewoon had moeten zeggen. Mensen onthou dat dit maar 1 echte benchmark bevat en dus niet de volledige performance in kaart brengt. Ipv daar van sla je een andere weg in die volgens mij en andere tweakers niet terecht is. Want de specificaties(zowel de AMD variant als de Intel variant) zijn gewoon de alle mensen gecontroleerd.

Het enige cherrypicking die ze hebben gedaan was voor het OC team. Maar Intel doet net zo hard mee. Je wil immers met je snelste/beste chip laten zien wat je kan doen.

[Reactie gewijzigd door loki504 op 22 juli 2024 20:35]

Je bent heel erg aan het verdedigen.

Je probeert nu mij over te laten komen als een AMD hater en dat ik zoiets als aan de "kant van Intel" sta. Getuige met je opmerking "Maar Intel doet net zo hard mee".

Dat is het nadeel tegenwoordig; en ook hier: als je niet meegaat in de hype ben je meteen vaak al "de vijand" en volgt meteen de '-1'. (censuur?)
Het sterkt mij iig meer de overtuiging van mijn mening.

Om even duidelijk te maken, ik sta noch aan de kant van Intel, noch aan die van AMD. Ik wil de beste prestaties voor een redelijke prijs, en dan maakt het me niet uit van welke kant het komt. Dus ik verwelkom de komst van de Zen echt wel.

En je hebt ook ergens gelijk. Intel heeft hetzelfde gedaan in het verleden.
En als dit nu Intel was geweest met hun cpu zou ik hetzelfde zeggen. Verrassing voor je? Ik denk het wel.

Ik ben enkel niet iemand die heel snel op een hypetrain springt en mee gaat doen met de meute. Dat dit niet populair is bij velen, dat is verwacht.
Linus was de AMD aan het promoten (zijn goed recht). Jij zegt dat ie niet gesponsord is terwijl 1 maand ervoor hij duidelijk gesponsord werd door AMD. Feit. En dat was wat ik zei.

En dat hij op een AMD bijeenkomst AMD hardware aan het gebruiken is om te testen zegt mij even niets. Geen een derde partij heeft de Zen onafhankelijk getest. Dat moet nog komen.

En ik probeer geen hype tegen te gaan.
Je zoekt er weer veel teveel achter.

En als je denkt dat cherry picking een fabeltje is, verdiep je maar eens in de geschiedenis van marketing.
Dit is echt niet zomaar verzonnen om bepaalde tests naar voren te brengen die jouw product het beste naar voren laat komen. En nogmaals; voel je niet aangevallen, als de cijfers van Su echt waar zijn, ga ik mee op die AMD trein.

Maar het zou zeker niet de eerste keer zijn dat de resultaten wat 'overdreven' zouden zijn, en dan nog zou het een zeer goede cpu zijn. En zoals het er nu uit ziet zijn de resultaten ook gewoon waar. Maar als jij durft te beweren dat iemand 100% onpartijdig is terwijl ze gesponsord werden, kom op.

Om ff een quote aan te halen van de TH website:

"Sure, AMD presented a few of its own internal cherry-picked benchmarks, but that tells us very little about the CPUs; actual performance. We would not deign to recommend (or not recommend) a product we haven't tested, and we have not yet tested Ryzen.

In other words, AMD is asking you to pay for the promise of performance. Perhaps you're willing to take the leap of faith based on what we do know about Ryzen, or perhaps you were always going to buy one of these CPUs and are worried that if you don't preorder, the supply might run dry. "


Om ff aan te geven dat ik echt niet aan het trollen ben oid.
Het is gewoon een gevalideerde mening die ik (en anderen hebben)

Als de Zen echt zo goed is heb ik over een maand oid zelf een Zen machine. Simpel. Ik wacht op een CPU update die de moeite waard is voor mijn huidige cpu upgrade, en de Kaby Lake is dat zeer zeker niet voor mij.

Ryzen: een goede cpu, Intel contender. Hoop het deze keer. Koop ik hem? wrs wel, maar niet voordat de neutrale feiten boven tafel zijn. ;)

[Reactie gewijzigd door Cyrusx op 22 juli 2024 20:35]

Als het een gesponsorde video geeft men dit duidelijk aan. Deze introductie is niet gesponsord. Dit is dan ook gewoon zeer nieuwswaardig.
Daar heb ik het helemaal niet over.

Eerdere poster gaf aan dat Linus niet gesponsord werd door AMD in het verleden terwijl dat iig in januari 2017 nog wel zo was.
En dan te bedenken dat de 1700x rondjes draait om de i7 6800k bijvoorbeeld, als de synthetische benchmarks representatief zijn voor de praktijk. Dus een stukje goedkoper en véél sneller.

De 1600x schijnt al sneller te zijn dan de 6800k, voor ongeveer 60% van de prijs.

[Reactie gewijzigd door echtwaarisdatzo op 22 juli 2024 20:35]

Was even naar schaalbaarheid met klokfrequentie aan het kijken en daar liep ik tegen het volgende aan. Dat als je de benchmarkresultaten neemt en voor de klokfrequentie precies tussen de basis en boost gaat zitten het wel heel erg goed past.
  • 1601 / 3,8 = 421,3 punten / GHz
  • 1537 / 3,65 = 421,1 punten / GHz
  • 1410 / 3,35 = 420,9 punten / GHz
Of ze schalen mooi lineaire of mogelijk schalen ze te mooi voor woorden en zijn het afgeleide scores. Bij de eerste onafhankelijke benchmarks zullen we het weten.
Anoniem: 505190 22 februari 2017 15:08
Nu is de vraag, in wat voor mate kunnen games gebruik maken van deze 8 cores?
Ik heb toch vaak aan moeten horen dat games maar van 4 gebruik kunnen maken, klopt dat?

wanneer er maar 4 gebruikt kunnen worden dan zijn deze processors natuurlijk een stuk langzamer dan de intel 4-core varianten, ik ben benieuwd
De job scheduler van een moderne OS zou alles netjes moeten verdelen per core als dat nodig is. Nog nooit gehoord dat Windows bijvoorbeeld hierop een limiet zet.

[Reactie gewijzigd door Torisuta op 22 juli 2024 20:35]

Helaas kunnen games niet zo makkelijk jobs laten splitsen als met sommige andere workloads. Veel zaken in games zijn van elkaar afhankelijk, vooral op het gebied van physics en AI, waardoor iets multithreaded maken of zelfs Windows een poging laten maken vaak extreem moeilijk is.

Je hebt het dus niet mis, maar het is veel moeilijker voor de specifieke workload van games.
Neemt daarom de grafische kaart in DX12 ook niet veel van het OS over, zodat het efficiënter zou worden? Je kunt nu op een lagere hardware level programmeren dan voorheen mogelijk was en dus sneller bepaalde zaken naar het OS of de GPU('s) sturen.

Games zouden hierdoor in DX12 toch sneller worden?! ;)

[Reactie gewijzigd door Tourmaline op 22 juli 2024 20:35]

DX12 maakt het inderdaad mogelijk om vanuit meerdere thread render commands naar de GPU te sturen, maar dit gebeurt niet 'zomaar'. Developers moeten nog steeds zelf zorgen dat dit via meerdere threads wordt aangestuurd en gebruikt. Sterker nog, doordat met DX12 programmeren op een lager level nodig is, moeten ontwikkelaars nog meer zelf regelen dan bij DX11 of eerder.

Daarnaast zijn er overigens wel game engines (Unity, Unreal bv.) die de nieuwe DX12 API als een simpele 'schakelaar' implementeren, maar daarvoor is natuurlijk veel werk voor verricht door de engine ontwikkelaars.
DX12 maakt het inderdaad mogelijk om vanuit meerdere thread render commands naar de GPU te sturen, maar dit gebeurt niet 'zomaar'.
Niet om het een of ander, maar DX11 kon dit ook al. AMD heeft het alleen niet geïmplementeerd in hun driver.
Ook niet met een sli opstelling ?
Multiplayer games en bots lijken mij nu typisch wel taken die prima door parallele cores kunnen worden afgehalndeld.
.oisyn Moderator Devschuur® @Torisuta22 februari 2017 15:35
De scheduler schedulet threads. Als een game niet meerdere threads gebruikt, of threads die niet goed parallel kunnen runnen (bijvoorbeeld omdat ze op elkaar wachten), dan kan de scheduler daar verder ook niets bijzonders mee. Het ligt toch echt aan de implementatie van een game of het goed gebruik kan maken van meerdere cores of niet, of hoe het schaalt naarmate je meer cores toevoegt.

[Reactie gewijzigd door .oisyn op 22 juli 2024 20:35]

Je hebt een vorm van parallelism nodig. Multi-threading, multi-processing ect. , je snapt mij wel.

De implementatie hiervan in de game is zeker belangrijk. Echter hoe de OS hiermee omgaat is nog belangrijker.
.oisyn Moderator Devschuur® @Torisuta22 februari 2017 16:31
Idd belangrijk, maar dat is niet echt iets waar men zich zorgen om maakt want dat zit in de praktijk wel goed. De vraag van @anthon888 gaat om typische implementaties van games zelf. Die worden steeds beter, maar de gemiddelde game is nog ver weg van maximaal parallelliseerbaar. Vandaar het wat onhandig geformuleerde "maximum 4 threads". Er is natuurlijk niet echt een maximum, het is gewoon dat meer cores veel games gewoonweg niet beter laten performen.

[Reactie gewijzigd door .oisyn op 22 juli 2024 20:35]

Idd, meer cores betekent niet automatisch beter performance.

Verder heb ik nog nooit een maximum gezien. Misschien op een console?
Het is algemeen bekend dat meerdere cores voor bepaalde zaken niet automatisch ook betere schaalbare prestaties levert. Na een bepaald aantal cores, je ziet dit erg goed bij gpu's die bij 3 cores maximaliseert en bij 4 al bijna geen winst meer laat zien bij de 4de extra core.

Voor nu is de max 4 cores per applicatie/game dacht ik. Je kunt natuurlijk met meerdere cores wel meer programma's tegelijk open hebben, zodat het nog soepel draait.

Je hebt geen 20 cores nodig voor games( 4 max?), omdat er dan toch niet gebruik van wordt gemaakt, maar je kunt dan wel een game draaien en tegelijk een webpagina open hebben en een Office applicatie laten draaien. Mits er ook voldoende RAM aanwezig is.

[Reactie gewijzigd door Tourmaline op 22 juli 2024 20:35]

Schaalbaarheid heeft met aandeel sequentieel en onafhankelijk paralleliseerbaar deel te maken. Kleine hoeveelheid sequentieel heeft al grote invloed.

Is dat 50: 50 en gebruik je dubbel zoveel cores dan 50 25 . rendement van 75%
met 10 x aantal cores

50 : 5 = 55
5x aantal cores
50: 10 = 60

Ja schiet niet op

verhouding
10 : 90 is 100%
10 cores
10 : 9 is 19%
Windows heeft fysiek wel een maximum aan cores wat het aankan. Niet dat het wat uitmaakt voor de gemiddelde gamebak.

Windows server kan wel met meer fysieke cpu's overweg.

Windows home heeft support voor maar 1 socket!
Win10 Pro x64 supports 2 sockets, 256 logical cores and up to 512GB RAM.

"Windows 10 supports maximum memory configurations that were formerly available only in the realm of servers. Windows 10 Home supports up to 128GB of RAM on the x64 platform. Windows 10 Pro and Enterprise both support up to 512GB on the x64 platform. The x86 versions of Windows 10 support a maximum of 4GB of RAM. Windows 10 supports a maximum of two physical CPUs, but the number of logical processors or cores varies based on the processor architecture. A maximum of 32 cores is supported in 32-bit versions of Windows 8, whereas up to 256 cores are supported in the 64-bit versions."

[Reactie gewijzigd door Tourmaline op 22 juli 2024 20:35]

Nee, windows kan het prima. Microsoft heeft gewoon een beperking ingebouwd om te zorgen dat je geen Windows 10 Starter op een server mainframe zet. Dit zijn slechts enkele variabelen die MS vastzet voor iedere variant van het OS. Sowieso kan het geen fysieke beperking zijn, want Windows is software...

[Reactie gewijzigd door GENETX op 22 juli 2024 20:35]

Ik neem bijna aan dat het geen limiet is omdat ze niet meer willen, want zover ik weet heeft linux ook een limiet van 4096 cores. Niet dat je dat snel zult merken op een consumenten pc; maar deze limiet is er ook voor alle linux machines.
Natuurlijk niet. Het OS kan alleen maar werken met datgene wat uit de source wordt aangeleverd. En de source is de applicatie, niet het OS. Als die applicatie dingen sequentieel wil doen dan is dat gewoon een gegeven.

Als wat jij zegt zou kloppen dan hadden we twintig jaar geleden al alles op 4 tot 32 cores lopen.

[Reactie gewijzigd door Vayra op 22 juli 2024 20:35]

Als de applicatie taken sequentieel wil uitvoeren dan beslist de OS nog steeds op welke core... En ja dit klopt al zon 20 jaar.
Klopt, op één core. Niet op meerdere tegelijk...
Zucht, zoals ik al eerde opmerkte. Het is bijvoorbeeld niet mogelijk om in C++ een thread maken op een specifieke core. C++ heeft geen kennis van dergelijke architectonische details. Het OS is in staat om de verdeling van threads onder cores goed genoeg te beheren.

Dat gezegd, bestaan er gevallen waarin het forceren van een specifieke verdeling van threads tussen cores nuttig kan zijn voor de prestaties. Als voorbeeld, door het forceren van een thread uit te voeren op een één specifieke core is het mogelijk om het verplaatsen van gegevens tussen verschillende processor caches te minimaliseren.

Als jij deze weg in wil slaan, dan moet jij kijken naar platform-specifieke routines. (Hiermee bedoel ik OS calls wat .oisyn mooi verwoord.)

Ik bedacht mij net nog een betere antwoord: wat is het nut van multi-threading als je het maar op een core kan draaien?

[Reactie gewijzigd door Torisuta op 22 juli 2024 20:35]

.oisyn Moderator Devschuur® @Torisuta22 februari 2017 18:59
Zucht, zoals ik al eerde opmerkte. Het is bijvoorbeeld niet mogelijk om in C++ een thread maken op een specifieke core. C++ heeft geen kennis van dergelijke architectonische details.
Standaard C++ niet nee, die heeft pas sinds kort threading. Maar je kon natuurlijk al threads aanmaken voordat C++ het officieel ondersteunde, door gebruik te maken van OS calls. En laten die nou ook gewoon ondersteunen dat je een "affinity" kunt instellen per proces en per thread: je kiest dus gewoon op welke mogelijke cores je thread mag draaien.

Het is over het algemeen niet aan te raden onder Windows, tenzij je precies weet wat je doet. Wat je over het algemeen niet kan weten, omdat je niet weet wat er verder draait. Op de consoles is dit een ander verhaal, waar het OS duidelijk aangeeft hoe lang en op welke core eventuele OS threads draaien.

Core switching kan zowel voor- als nadelen hebben. Context switches zijn duur, dus je wil niet dat twee threads de hele tijd timeslicen op dezelfde core. Tegelijkertijd is switchen naar een andere core vaak ook duurder, helemaal als die andere core een eigen cache heeft (dit zie je bijvoorbeeld op zowel de Xbox One als de PS4, waar de CPU eigenlijk bestaat uit twee quadcores met ieder hun eigen gedeelde cache - threads wil je dus op dezelfde quadcore houden).

Ook het volwaardig inzetten van alle logische cores kan nadelige gevolgen hebben. Twee ALU bound threads op dezelfde SMT core kunnen elkaar behoorlijk in de weg zitten, omdat ze dan gaan vechten om de ALU units. En dit zijn dan weer typische zaken waar de OS scheduler geen weet van heeft.

[Reactie gewijzigd door .oisyn op 22 juli 2024 20:35]

Multithreading op een enkele core kan nog steeds nuttig zijn. Door het werk op te splitsen in zelfstandige taken wordt het mogelijk om bepaalde taken in de wacht te zetten terwijl de rest van het programma doordraait.

Een voorbeeldje uit mijn eigen praktijk:

Neem een GUI programma en voeg hieraan een netwerkcomponent toe. Zeg een TCP client die elke seconde wat statistieken ophaalt. Maar netwerkverkeer is onbetrouwbaar. Een flinke hoeveelheid bytes binnenhalen in een read() kan zomaar even 300ms duren en zo de executie van je programma blokkeren. In een single-threaded applicatie zou dus ook het bijwerken van je GUI 300ms blokkeren. En dat om de seconde, yikes! Hoor die gebruikers al klagen over je mooie app!

Als je dit werk nu uitbesteedt aan een thread dan wordt er tenminste wel om de 20ms (Ubuntu's standaard task slice, iirc) weer wat tijd gegeven aan het updaten van je GUI. Hierdoor krijgt de gebruiker de illusie dat het programma nog steeds naar hem luistert.

Mocht je je afvragen waar dit nou gebeurde: ik was een GUI programma in elkaar aan het zetten op basis van wxWidgets voor Python in combinatie met Cython en liep toen tegen dit probleem aan. Toen ik het werk afsplitste naar een aparte thread kreeg ik een veel responsievere GUI. Uiteindelijk deed ik nog teveel werk in de threads die ik maakte en leerde toen pas echt over de GIL en hoe verschrikkelijk serieel die Cython maakt. Nu heb ik recentelijk de multiprocessing library ontdekt en kan ik echt werk beter gaan verdelen. Nou alleen nog ergens tijd zien in te plannen daarvoor. 8)7

En eigenlijk is dit hoe computers mensen al tientallen jaren voor de gek weten te houden met de illusie dat een enkele CPU kern toch meerdere programma's tegelijkertijd kan laten draaien.
...
Neem een GUI programma en voeg hieraan een netwerkcomponent toe. Zeg een TCP client die elke seconde wat statistieken ophaalt. Maar netwerkverkeer is onbetrouwbaar. Een flinke hoeveelheid bytes binnenhalen in een read() kan zomaar even 300ms duren en zo de executie van je programma blokkeren. In een single-threaded applicatie zou dus ook het bijwerken van je GUI 300ms blokkeren...
Dat is de reden dat poll/select calls bestaan. Alle GUI frameworks op alle OSsen zijn daarop ingericht. Het binnenhalen van netwerkdata gebeurt grotendeels in hardware (DMA), de CPU krijgt een seintje als er genoeg data klaar staat, en hoeft 't alleen nog te kopieren. In plaats van de hele GUI te blokkeren kun je dus een asynchrone read starten, en krijg je gewoon een berichtje als er data voor je klaar staat. Ophalen van je data duurt dan ineens <1ms en je GUI blokkeert niet. En omdat je geen threading nodig hebt, groeit je GUI code ook niet vol met allerlei queues, mutexen en andere synchronisatie.

Python doet dit heel leuk met het twisted.net framework.
Het probleem is dat de volgende keer als thread weer time slice krijgt dat toegewezen op andere core. Dus caches mogelijk vaak getrashed worden.
Soms is thread locken op een core gewenst omdat hoop data en instructies al in de caches kunnen staan. SMT maakt dat nog complexer als deelt caches maar ook core resources.
Alleen Windows is daar zeer beperkt in je kan de afiniteit instellen.
Het probleem is dat de volgende keer als thread weer time slice krijgt dat toegewezen op andere core.
Een OS dat z'n sop waard is zal écht niet een thread elke keer op een ander core zetten. Misschien moet je je OS eens upgraden :-)
Soms is thread locken op een core gewenst omdat hoop data en instructies al in de caches kunnen staan.
Beslissingen van mensen zijn iha minder goed dan die van een OS. Het OS houdt óók rekening met welke caches al gevuld zijn voor welke thread.

En: als je een core niet exclusief aan een thread toewijst, dan zal de CPU-cache nog steeds vervuild raken door andere threads. Als je 'm wel exclusief toewijst, dan gebruik je bijna zeker die core niet optimaal.
SMT maakt dat nog complexer als deelt caches maar ook core resources.
Moderne OSen zijn zich dus ook bewust van SMT. Als er bijv. twee processen actief zijn, zullen ze die dus ook altijd op twee verschillende cores zetten, en niet per ongeluk op de twee SMT threads van dezelfde core.

Edit: typo's

[Reactie gewijzigd door RJG-223 op 22 juli 2024 20:35]

multithreading kan voor prestatiewinst zorgen op 1 core doordat de queue dieper wordt, zeker als de cpu meerdere instructies per cycle kan doen en/of de threads niet super geoptimaliseerd zijn voor die architecture.

simplistisch voorbeeld: stel dat jij een programma hebt wat op meerdere threads sequentieel een instructie na de andere uitvoert op een cpu die meerdere instructies tegelijk kan doen.

of je wilt tegelijk integer en floating point doen op verschillende threads.
Ja, dat klopt opzich maar je moet via de game wel de threads aansturen en zorgen dat je parallellisme goed gebruikt. Je weet als gamebouwer hoe parallellisme werkt, daar zijn immers tools voor, dan moet je als gamebouwer zorgen dat je alles goed aanstuurt.

De game is belangrijker want als je het niet implementeert kun je ook geen multithreading gebruiken. Je parallellisme kan nog zo mooi geimplementeert zijn in je OS, als je er niets mee doet houdt het natuurlijk gewoon op.

Dus, de gamebouwers zijn daar zelf verantwoordelijk voor.

[Reactie gewijzigd door Tourmaline op 22 juli 2024 20:35]

Het "made for AMD" logo in de game zal dus belangrijk gaan worden in de komende jaren :)
AMD en iNtel hebben hetzelfde probleem de toekomst en verdere dieshrinks houd in om CPU krachtiger te maken komen er meer cores.
10nm 7nm 5 nm kan je op consumenten die zoveel meer core kwijt.
12cores is niet zo gek.

Ze kunnen ipv pure CPU gaan voor APU in de high-end.

32cores is mooi op consumenten AMD maar of games daarin mee gaan.

Kunnen ze gaan voor €600 APU Soc. 12 cores met SMT en GPU en HBM 32GB memcontroler voor externe 128GB DDR4.

Wat mogelijk gaat komen is dat PC minimalistisch worden en genoeg power hebben voor meeste consumenten toepassingen zo ook gamen met 5nm Soc.

MAar er zijn genres die ook zwaar kunnen leunen op parrallisering.

RTS of fine grain generated destructie of large scale battles & AI en IL
We kunnen hierover door blijven discussiëren. Je kan alles nog zo goed programmeren in de game (of programma). Uiteindelijk beslist de OS toch wat er gaat gebeuren.
Nee, juist niet. Dat bepaal je met het programmeren wanneer je wat wilt laten uitvoeren door je OS of grafische kaart. ;)
Ja owkay, ik doelde meer op het parallelism. ;)
Windows OS hebben shedular die Threads time sliced en verdeeld over de cores. Daar heb je met afinity setting zeer beperkt invloed op.
Dus het OS beslist Waar de thread de volgende timeslice op gaat lopen.
Games zullen steeds meer multithreaded gaan werken. Ze moeten wel als ze nog mooiere games willen maken. Dus met meer cores ben je future proof.

Voor de rest zullen we de benchmarks van huidige games moeten afwachten. Zal niet lang meer duren
Games zullen steeds meer multithreaded gaan werken. Ze moeten wel als ze nog mooiere games willen maken. Dus met meer cores ben je future proof.
Want? Zonder bronnen is dit echt een loze bewering. In het afgelopen decennium (ruim 10 jaar dus!) dat hyperthreading er bijvoorbeeld is en CPU's meerdere cores hebben gekregen, zie je maar weinig verschil in CPU gebruik.

Een applicatie goed multithreaded laten zijn is dan ook iets wat ten eerste niet altijd voordeel hoeft te brengen ten tweede onwijs ingewikkeld in elkaar steekt om te programmeren. Daarom zijn alleen de complexe (en daardoor dure) enterprise applicaties wel multi threaded, zoals CAD/CAM/GIS applicaties, maar zijn games dat niet, omdat die veel te simplistisch in elkaar steken, ten opzichte van CAD/CAM/GIS applicaties uiteraard of gewoon geen baad hebben bij multithreading.

[Reactie gewijzigd door CH4OS op 22 juli 2024 20:35]

Wat heeft het voor zin om software te schrijven voor octacores als er nagenoeg geen octacores zijn? Die van AMD waren per core zo langzaam dat het al een verloren race was en die van Intel zijn zo duur dat bijna niemand ze koopt.

Dus ik vermoed dat er veel meer multithreaded software gaat komen als octacores mainstream worden. Dat hebben we ook gezien met quad cores.
CPU's met meerdere cores zijn er al jaren. Ik zie dus niet waarom het nu wel opeens een vaart zou moeten gaan. Het aantal cores is voor multi threaded apps namelijk niet heel belangrijk.

Specifiek voor een aantal cores je app ontwikkelen is ook niet goed, want dan snij je ook maar een (niche) deel aan van de markt, iets wat je dus ook niet wilt als developper. En heeft dus het merendeel van de klanten totaal niets aan. ;)
Daar ben ik het niet helemaal mee eens. Vaak is het toch eenvoudiger om je applicatie in een bepaald aantal taken op te splitsen (bv. render, physics, audio,...). Dan zit je sowieso aan een aantal threads (en dus max cores) vast.

Je applicatie schrijven voor N threads, waarbij N door de applicatie zelf bepaald wordt (bv op basis van aantal cores van de pc) is over het algemeen toch veel ingewikkelder. Bovendien is dit geen garantie op succes, want hoe groter N, hoe groter ook de overhead. Voor zowat alle (niet-triviale) problemen is er dan ook een maximum haalbare N, waarbij het verder verhogen van het aantal threads de performantie zelfs zal schaden.
Daar ben ik het niet helemaal mee eens. Vaak is het toch eenvoudiger om je applicatie in een bepaald aantal taken op te splitsen (bv. render, physics, audio,...). Dan zit je sowieso aan een aantal threads (en dus max cores) vast.
Ik kan je nu al vertellen dat game engines zo simpelweg niet werken, dus dat zal helaas niet gaan lukken. Daarnaast is eea ook afhankelijk van elkaar, waardoor het asynchroon kan gaan lopen als je de zaken die je noemt via een aparte thread laat verlopen, niet wenselijk dus.
Een game is niet zomaar een applicatie:
https://www.youtube.com/w...DFLMLX9k&feature=youtu.be
Er komt veel meer bij kijken en vooral omdat er meerdere keren per seconde een "uitkomst" moet zijn, valt er genoeg NIET te paralleliseren wat
de potentieele winst van mutli-cores/multthreading zwaar onder druk zet.

Hier een review van vorig jaar, met Dx12 en twee Dx12 games:
http://www.pcworld.com/ar...or-directx-12-gaming.html
Ashes of the Singularity doet het dan het beste, maar ook daar begint de winst van het aantal cores in te kakken na zes cores. Ondanks dat er veel ontwikkeltijd in de game enigine is gestoken. Beetje teleurstellend mag ik wel zeggen. Tijd en geld is dan ook een belangrijke factor waarom we zolang op goede mutlithreaded games mogen wachten. Het kost gewoon (nog?) teveel tijd, energie en geld en is dan commercieel niet zo aantrekkelijk.

Video-encoding is tov. van een game engine, veel rechtlijniger en het resultaat kan in principe wachten totdat het gehele proces voltooid is.

[Reactie gewijzigd door Madrox op 22 juli 2024 20:35]

Tegenwoordig is er zeker een voordeel als je een quad core hebt ten opzichte van een dual core. Dat was vroeger ook niet zo.

Als developer moet je wel voor een aantal cores gaan. Je kan niet alles zo programmeren dat het schaalt met N threads.
Als er werkelijk zoveel baad bij was, waren de performance verschillen ook wel zoveel groter. ;)
Kijk de benchmarks er maar op na. Met een quad core haal je betere FPS dan een dual core bij een hoop spellen.
Bij Battlefield 3 of Bad Company 2 zag je inderdaad een groot verschil in FPS. Toen ik van dual naar quad core ging, verdubbelden mijn FPS in een van die twee games. Echter heb ik destijds niet alleen daarvoor de upgrade gedaan. Echter zie je dat de laatste jaren het verschil in performance niet meer dusdanig veel meer toeneemt.

En een andere punt: mochten PC's echt zoveel baad hebben bij meer cores, hadden ze bij de ontwikkeling van de CPU's daar ook wel rekening mee gehouden en hadden we nu meer dan 8 cores op een CPU. ;)

[Reactie gewijzigd door CH4OS op 22 juli 2024 20:35]

Ja ho nu schets je een kip ei verhaal. De ontwerpers van de cpu wachten totdat software >4 cores ondersteunt en de developers wachten totdat >4 cores mainstream word. Gevolg hiervan dat er niks gebeurd.

Grappige is dat deze situatie ook in code voorkomt. Het heeft zelfs een naam: Deadlock.
er is wel diminishing returns: er moet steeds meer werk gedaan worden om te optimaliseren om in de buurt van de prestatiewinst te komen die bij de vorige verdubbeling van de cores is gerealiseerd. het seriele deel van het programma kan op 1 core 100% zijn, bij 2 cores 50%, bij 4 cores 25% etc, als je niet alle cores 100% wilt inzetten kun je een beetje sjoemelen. maar elk uur dat je stopt in het optimaliseren van je game levert minder winst op. er zijn nu eenmaal dingen die serieel moeten, met de kennis van nu.
Dat ligt er helemaal aan over welk algoritme je het hebt en hoe dat is opgezet. Je hebt algoritmes die gewoon netjes mee kunnen schalen met het aantal cores maar andersom kan het ook. Wat makkelijker is om aparte systemen op aparte threads te draaien maar dan schaalt het niet met N cores.
het gaat niet alleen om het algoritme zelf maar ook om het werk dat daaromheen gedaan moet worden. een algoritme wat je n maal parallel moet uitvoeren moet uitvoeren over m cores verdelen is triviaal, maar in de praktijk is het algoritme wat de kern van je programma vormt niet het enige deel van je programma wat veel cpu nodig time kan hebben. sommige andere delen, en ook sommige algoritmes, moeten veel serieel werk doen. bijv. als er een iteratief proces is waarbij f(n-1) nodig is om f(n) te berekenen. dan is eer keiharde limiet aan de hoeveelheid threads die je kunt draaien, namelijk het aantal functies waar je aan probeert te rekenen. ook is het soms gewoon veel sneller of goedkoper of makkelijker om iets serieel te coden ipv het zwaar parallel te maken.

benchmarks worden vanaf dag 0 ontworpen met enorme parallellisatie in gedachten en geven dus altijd vertekend hoge scores voor meer cores, tov wat je in de praktijk in niet optimale gevallen zal zien in die tijdsperiode.

ok zou ik willen zeggen dat er de situatie met de kip en het ei in dit geval meer een 'soft lock' is dan een deadlock. (weet niet of dat de officiele term is) software kan wel voor 8 cores worden geoptimaliseerd als de meeste cpus ze niet hebben, al is het maar om voor de toekomst klaar te zijn, alleen tegen hogere kosten en met wat technische beperkingen. 8 core cpus kunnen iig 2 4-threaded programmas parallel draaien. deze lock lost zichzelf uiteindelijk op, het gaat alleen trager dan jij zou willen.

[Reactie gewijzigd door Origin64 op 22 juli 2024 20:35]

de Playstation en XBox zijn octacores die niet zo krachtig zijn dus moeten de gameontwikkelaar weldegelijk gebruik maken van zo mogelijk cores om er alles uit te persen.

DX12 maakt ook beter gebruik van meerdere cores.
het zijn octacores waarvan sws 1 core dedicated was voor het OS en background tasks, en games op die consoles zouden beter presteren als ze 2x zo snelle quad core cpus hadden. het is een uphill battle. maar die octa cores waren nu eenmaal goedkoper dan snellere quads.
Voor publisher met game van soort corridor vette GFX niet CPU demanding.
Richten zich op mainstream. Veel Games eisen minimaal 4 cores ( 2c/4t)
om de simpele reden dat grote titels grote investeringen zijn en dat gaat alleen met een mainstream target.
Zoals @Barsonax aanduid wat heeft het voor zin nou geen zin als 6core en meer dure high end zijn dus kleine deel markt.
AMD 8/4 eigenlijk soort van 4core CMT is maar de IPC dramatisch is met te lage klok.

Ja en als het mainstream wordt gaan de dev dat als target promoten en dus engines opschalen naar meer threads mogelijk 6 tot 8 cores eisen.

mogelijk moeten we wachten tot 2020.
Ondertussen is DX12 & Vulkan ook mainstream voor triple A games.
beetje moeilijk leesbare post maar ik snap de strekking. je bedoelt denk ik single core performance ipv ipc. :)
Je ziet wel veel verschil alleen niet in de mate waarop wij wellicht hadden gehoopt. De dual core is jaren lang de sweet spot gebleven, alleen enkele games deden echt wat met een derde core. Dit zagen we goed terug in 2014 met de Intel Pentium Anniverary edition, een budget dualcore met een unlocked multiplier. Deze cpu wist de i5 quadcores bij te houden dan wel te verslaan in sommige games:

http://techreport.com/rev...rsary-edition-processor/3

Anno 2017 is dat tijdperk eigenlijk wel voorbij en heb je vaker wel dan niet iets aan 3 (of zelfs 4) cores. Zie bijvoorbeeld een review van de 7350K, een unlocked i3 met hyperthreading die toch een quadcore niet bij kan houden: http://www.eurogamer.net/...lake-core-i3-7350k-review. Technieken als hyperthreading voegen voor duacores tegenwoordig echt wel iets toe.

Echter meer dan 4 cores is tot heden dan weer niet zo nuttig, en daarmee hyperthreading op deze modellen ook niet. Dus het blijft een kip/ei probleem voor de 6-cores en 8-cores. Op basis van het verleden kan het gerust 5 jaar duren voor je daar echt winst pakt (binnen gaming).

[Reactie gewijzigd door sdk1985 op 22 juli 2024 20:35]

Anoniem: 668692 @sdk198522 februari 2017 16:14
"Echter meer dan 4 cores is tot heden dan weer niet zo nuttig, en daarmee hyperthreading op deze modellen ook niet. "

Tot je wilt gaan streamen oid. Dan zijn die 4 extra cores wel erg nuttig, omdat je anders de 4 cores belast die je voor gaming nodig hebt!
"Echter meer dan 4 cores is tot heden dan weer niet zo nuttig, en daarmee hyperthreading op deze modellen ook niet. "

Tot je wilt gaan streamen oid. Dan zijn die 4 extra cores wel erg nuttig, omdat je anders de 4 cores belast die je voor gaming nodig hebt!
Nee hoor, streaming gaat tegenwoordig via hardwarematige encoding. Bijvoorbeeld met NVENC (geforce kaarten) of Quiksync (Intel IGP).
Anoniem: 668692 @sdk198522 februari 2017 16:27
Interessant punt, zal eens zoeken volgens mij hadden enkele van de welbekende tech-youtubers er wat testen naar gedaan.

*edit*
eens kijken, Linus is er inderdaad op in gegaan...

maar zijn conclussie is gemengd:
https://www.youtube.com/watch?v=-GgDZKGA89I

[Reactie gewijzigd door Anoniem: 668692 op 22 juli 2024 20:35]

Weet je wat? eigenlijk heb je dan een16 core nodig om te kunnen mp3 encoden en prime95 draaien terwijl je streamt terwijl je gamet.

er is altijd wel een extra ding wat je tegelijk kan doen met meer cores. dat betekent echter dat een cpu met zoveel cores automatisch niche is.

video encoding is zo'n beetje de enige use case voor consumenten waarbij je echt iets aan 8 cores hebt. en er zijn genoeg mensen die dat niet doen en toch een i7 met hyperthreading of een octa core kopen 'want hij is sneller'
Het grootste struikelblok was directX
Meer cpu cores leverde niet meer performance op omdat directX niet goed multithreaded was aan te sturen. Dat is veranderd met DX12.
Terwijl DX12 ook niet heel bijster interessant is, omdat DX12 een Windows 10 only feature is en ontwikkelaars voorlopig nog vrolijk op DX11 blijven (al dan niet in opdracht van de investeerders, omdat DX11 veel breder inzetbaar is. ;)

Dus hoe DirectX een struikelblok is voor een CPU ontgaat me even, er wordt meer gedaan op een PC dan gaming alleen. :) Daarnaast is DirectX is een API voor de GPU, niet de CPU (strict gezien heeft het dus ook geen relatie met de CPU). :) Met DX12 zijn er low level API's toegevoegd, zoals Mantle die ook heeft, daardoor is er wel wat performance gewonnen inderdaad, maar dat komt niet omdat de CPU een struikelblok is, maar met de architectuur en werking van DirectX.

[Reactie gewijzigd door CH4OS op 22 juli 2024 20:35]

Ja, er is meer dan alleen games. Maar dit commentaar stukje ging over games.

De cpu is geen struikelblok, zoals je aan het eind van je commentaar schrijft. DX is inderdaad het struikelblok zoals je zelf ook aangeeft. Dat is de interface tussen de CPU en GPU. En DX draait op de CPU. Op de CPU word bepaald wat de GPU moet doen. Dus er is een sterke relatie.

De cpu kan wel meer processen, maar als hij het niet kan doorgeven naar de gpu omdat er een bottleneck is (DX) Dan heeft het geen zin om er moeite in te steken om een game geschikt te maken voor nog meer cores.

[Reactie gewijzigd door gjmi op 22 juli 2024 20:35]

Zoals DX12 ooit mainstream wordt zal de Windows gamers markt ook meer naar W10 migreren en voor Windows W10 de mainstream worden.

Houd er ook rekening mee dat er geen w11 komt maar W10 elk jaar major feature upgrade krijg tot zelfs visuele andere front end.
Daarnaast is Vulkan nog voor op korte termijn als je zonodig in dichtbijzijnde toekomst W7 wilt mee pakken. Zoals Doom
Tja, met DirectX heb je enkel de Windows gebruikers, terwijl er ook steeds meer op Linux gegamed wordt. An sich is Vulkan dan dus de interessantste, die op beide platformen (Windows en Linux) beschikbaar is.
het gaat microsoft een flinke duit kosten om iedereen van dx11 naar dx12 te krijgen ipv een aantal naar alternatieven als opengl of proprietary als vulkan/mantle/hoe het nu ook heet

zeker bedrijven als valve met hun individualistische instelling zijn er denk ik niet al te happig op

[Reactie gewijzigd door Origin64 op 22 juli 2024 20:35]

Misschien hoeft de applicatie zelf ook niet meer multitreaded gaan doen maar zijn we wel gewoon meer applicaties gelijktijdig gaan gebruiken. Dus terwijl je aan het gamen bent laat Windows je windows update, spotify en bittorrrent en weet ik niet wat al meer nog gewoon op de achtergrond door werken, daarbij komen meer cores goed van pas.
Als je in je taakbeheerder kijkt, zie je vaak dat de applicaties die jij noemt een fractie van de resources gebruikt ten op zichte van bijvoorbeeld een game. De processen op de achtergrond zijn dus slechts een peuleschil.
Je hebt een punt. Ik had de grootste resource vreters die vaak in de achtergrond open staan ook moeten noemen: websbrowsers.
web browsers vragen ook gpu cycles dus zelfs met een 8core cpu doe je er nog steeds goed aan om 'open my tabs from last time' als homepage in te stellen en je alt-f4 vingers warm te houden
Tja als je 16 thread hebt met 8 core moet ookw at overhouden voor systeem 2 tot 4 thread voor systeem en achtergrond zooi.
Op basis waarvan? :? Het is geen regel of zo dat zoiets daadwerkelijk nodig is. :)
Zelfs het modelleren in 3Dcad is single threaded, dit omdat de ene bewerking pas kan worden uitgevoerd, als de andere is gedaan. Er zit dus een soort chronoligsche volgorde in en daarom zit het modelleren in 3D omgeving vooralsnog op 1 thread. Renderen en CFD is natuurlijk wel multithreaded. Hoe meer cores je daarvoor hebt, hoe meer tijd je bespaart.

[Reactie gewijzigd door govie op 22 juli 2024 20:35]

CAD CAM ook nog steeds niet zo erg. Ook nog steeds de enkele lineaire thread voor de interactie tussen gebruiker en software. Die thread zal wel dochter threads aftrappen, zoals het opnieuw doorrekenen van relaties in een model na aanpassing, of voor het doorrekenen van 2D views op tekeningen. Deze dochter threads blijven echter wel opgehangen aan de hoofd-thread. In gewoon Nederlands: je zit bij je CAD systeem te wachten totdat de views zijn doorgerekend.

Waar multicore wel zwaar worden gebruikt is bij het doorrekenen van een krachtenspel in een constructie door eindige elementen software (FEM = Finite Element Method). Ook visualisatie software heeft er veel baat bij door de afzonderlijke frames (beeldjes) in een filmpje door te laten rekenen door verschillende cores of systemen. Zeker FEM applicaties zijn zich bewust van de toegevoegde waarde van die meerdere cores. Daarom rekenen ze de licentie kosten voor hun solver module ok per core, of wordt er per extra core een opslag betaald. Maar dan staan die cores ook echt 100% te stampen.
Voor zover ik weet zijn op de meeste games hyperthreated cores nog steeds niet erg gebruikelijk, daartegenover is met directx 12 daar wel de support voor en hoop ik ook dat dit steeds vaker gebruikt gaat worden.

Verder zou ik het vrij knap vinden als Ryzen beter presteert in zijn 8/16 setup maar als het de virtual cores niet kan gebruiken ineens slechter zou draaien? lijkt mij in ieder geval erg onlogisch.

Des al niet te min, vind ik dit een erg goede verandering in de CPU markt.
Ik laat me verassen.
Ik laat me verassen.
Ik zou daar nog even mee wachten ;-)
Zeer zeker :), heb een maand of 3 geleden een nieuwe I7 gekocht, deze doet het perfect en hoeft voorlopig niet vervangen te worden hoop ik :)
Ik doelde op het ver assen ......
Een game weet helemaal niks van de CPU. Het enige wat het kan weten is hoeveel virtuele CPUs er zijn. Bijvoorbeeld met de functie std::thread::hardware_concurrency in C++11. Maar verder weet een game echt helemaal niks van de CPU en dus ook niet of de CPU nu hyperthreaded is of niet.

Kennis hiervan is ook niet erg interessant. Want het kan best handig zijn om meer dan dit getal aan threads te maken. Dit gebeurt al tijdens het opstarten van Windows. Kijk maar in taakbeheer: je ziet al makkelijk meer dan 40 processen (geeneens threads!) die allemaal op die 2/4/8 cores moeten draaien!

Dus wat zijn die virtuele CPUs nu? Dat zijn alle echte kernen + het aantal hyperthreaded kernen. Een quadcore i7 met HT heeft per fysieke kern één hyperthreaded kern. Voor een totaal van acht virtuele kernen. Het besturingssysteem beschouwt ze allemaal als volwaardige kernen en weet dus eigenlijk zelf niks van de CPU af. Het krijgt alleen te horen dat er achter kernen beschikbaar zijn. Het is aan de CPU's scheduler (dit is dus niet de scheduler van het OS) om twee threads te balanceren op een enkele fysieke core.

Omdat hyperthreading eigenlijk het gebruik van lege plekken in de instructiepijplijn is krijg je dus maar een zeker beperkte winst mee (~20%). En door een povere uitwerking/toepassing hiervan in de eerste (paar) generatie(s) CPUs wou het voor sommige taken wel eens positief uitpakken om hyperthreading uit te zetten omdat de caches en pipe lines dan minder vervuild werden.
.oisyn Moderator Devschuur® @Nathilion22 februari 2017 20:00
Een game is uiteraard niet gelimiteerd tot wat de C++ library je aan functionaliteit geeft. Gelukkig niet, anders kon je er ook geen grafische game mee maken ;). Er zijn genoeg OS calls om meer te weten te komen over de CPU, en er bestaat zelfs een assembly instructie voor: cpuid.

Of een CPU aan SMT ("hyperthreading") doet is juist uitermate interessant voor een multicore applicatie, omdat dergelijke logische cores mogelijk niet als volwaardig moeten worden beschouwd. Je wilt nou eenmaal niet twee ALU-heavy threads hebben draaien op een enkele fysieke core omdat ze dan gaan vechten om resources. Het is dan interessanter om een memory heavy thread en een ALU thread naast elkaar te hebben draaien. Dit zijn dus zaken die een applicatie juist wél wilt weten, zodat er zinnig gebruik van kan worden gemaakt in plaats van je te beperken tot draconische oplossingen zoals het uitzetten van SMT.

[Reactie gewijzigd door .oisyn op 22 juli 2024 20:35]

Ik snap inderdaad wat je wil zeggen dat de games niet weten hoeveel cores of SMT's een CPU heeft, maar daar zit met DX12 toch een degelijk verschil in? Ik had juist begrepen dat DX12 dus wel daadwerkelijk gebruik kan maken van de hyperthreated cores. (correct me if I'm wrong). Echter besef ik wel dat de game engine het dan ook moet ondersteunen. :)
Battelfield is een mooi voorbeeld. Die gebruikt alle cores. En ik heb er 12.
De verhalen van 4 cores vind ik nu wel achterhaald.
Dat is me een dikke 6-core :o :o
Puur uit interesse, is dit BF1 of BF4? of gewoon in het algemeen?
Sommige games wel, sommige games niet. Bv. GTA V en Cities:Skylines schalen goed naar 8 cores.
O.a. ook games gebaseerd op de:
Unreal Engine 4
Frostbite 3
CryEngine 3

Edit: hier nog een interessant artikel voor je van Tweakers' partner HWI, een test over het nut van meer cores in games: https://nl.hardware.info/...-nut-van-meer-cores-games
(dit betreffen wel oudere games)

[Reactie gewijzigd door SavageSam op 22 juli 2024 20:35]

Nu is de vraag, in wat voor mate kunnen games gebruik maken van deze 8 cores?
Als de games het niet doen, dan rennen de workstation bouwers wel naar AMD. Zulke multicore-prestaties voor zulke prijzen :D

Ik hoop van harte dat AMD hiermee weer er boven op komt!
Intel mag hierdoor best wel eens weer zijn best doen. Zie het artikel van Tweakers waarin 10 generaties Intel CPU's met elkaar worden vergeleken. Intel is vooral vooruitgegaan op energie-efficientie, maar de groei in rauwe rekenkracht is nauwelijks opgeschoten. Vooral voor zwaar reken- en simulatiewerk is dit triest. En daar mag (mocht ;) ) je hoofdprijs voor betalen.
Ga er maar wel van uit dat OEM's sowieso niet de retail prijs betalen voor intel cpu's. Al neem ik aan dat ze met Ryzen in het verschiet wel opnieuw willen onderhandelen :)
Opzich kunnen ze daar volledig gebruik van maken (en dat is nog makkelijker gemaakt met DirectX 12 / vulkan) maar het licht allemaal aan de programmeurs.

Het is vaak moeilijker om iets asynchroon te maken (multi threaded) en dat vergt dus extra tijd. Ze moeten de afweging Tijd(kosten)/business value maken. Maar zoals ik al zei bijv door directX is het steeds makkelijker geworden en zeker door de winst in performance en kwaliteit verhoging (als het goed gedaan wordt) zijn we eigenlijk in een tijd dat het gewoon altijd gedaan zou moeten worden.
Tegenwoordig klopt dat niet helemaal meer. Steeds meer games maken gebruik van meerdere cores en threads. Battlefield 1 schaalt zeer goed met meer resources namelijk. Juist de games die dermate veel performance nodig hebben, kunnen sinds de laatste jaren prima overweg met 8 of meer threads.
wanneer er maar 4 gebruikt kunnen worden dan zijn deze processors natuurlijk een stuk langzamer dan de intel 4-core varianten, ik ben benieuwd
De benchmarks van onafhankelijke sites moeten nog verschijnen natuurlijk, maar zoals het er nu uit ziet valt dat ontzettend mee. Ja, een overgeklokte i7 7700k zal nog altijd de snelste single core performance neer gaan zetten verwacht ik. Maar een Ryzen-chip loopt ook single core maar een klein stukje achter, en (nogmaals, zoals het er nu uit ziet) is nog altijd vlotter dan de single core performance van een Core i5.

Dan zullen er dus wel games blijven waarop de CPU een superklein beetje achterloopt, maar gemiddeld zal Ryzen echt niet onderdoen. En dat terwijl 'ie energiezuiniger is, goedkoper is én meer performance biedt in de games die er wel gebruik van maken. Ik wist het wel ;)
Het wisselt per spel. Bij sommige spellen is 1 core voldoende, maar is het heel belangrijk dat die op een zo hoog mogelijke frequentie draait.
Andere spellen hebben best baat bij meerdere cores, maar het verschil tussen 6 en 8 zal niet echt relevant zijn.
Bij Fallout 4 leek het verschil vooral aan de cache te liggen: i7s hadden vwel voordelen tov i5s, maar niet omdat de extra cores het nou zo druk hadden.

Vergeet niet dat de totale CPU markt -veel- groter is dan de High End gamersmarkt. Er zijn wel veel mensen die gamen, maar Intel moet het echt niet hebben van de verkoop van i7-6900Ks alleen. Datacenters vullen met duizenden computers is relevanter.
zelf als ze maar 4 cores gebruiken zullen ze alsnog niet een "stuk langzamer" zijn als Intel, aangezien de Single core prestaties ongeveer gelijk zijn, gaat veel afhangen van de turbo clocksnelheid

Je moet er ook aan denken dat steeds meer games en programma's meer als 4 cores kunnen gebruiken, ik zou zelf nu geen quad core meer aanschaffen met oog op de toekomst.

Ook als een spel maar 4 cores gebruikt, zijn er altijd nog andere Windows processen die dan op de rest van de cores kunnen draaien (weet niet zeker of dit zo werkt)
je kunt nu geld besparen door een quad te kopen en dat geld gebruiken bij de volgende upgrade, of die daarna, na het moment dat een 8 core cpu echt beter presteert in een use case die voor jou relevant is, bijv in een game die je daadwerkelijk speelt.

als je nu geld uitgeeft aan iets dat je over een paar jaar misschien nodig hebt in een game die nog moet uitkomen, betaal je nu terwijl die techniek over een paar jaar veel goedkoper is. alleen als jij de kans heel hoog acht dat je binnen de helft van je upgrade cycle die 8 cores echt nodig hebt, is het een goede investering, imo
De laatste games laten toch wel zien dat quad cores aan hun eind komen.
"Gelukkig" zijn de meeste games ports van console games, en die beschikken over 8 cores, dus de kans dat de games beter presteren bij 8 cores is gewoon erg groot.
Dit is duidelijk voor streamers dan wel workstations bedoelt. De r3 en r5(i3 en i5 variant). komen later dit jaar. En gaat zal de sweatspot voor gamers zitten).
1800X in een leuk Mini ITX systeempje en ik ga weer bouwen :) Is er al ergens iets bekend qua Mini ITX boardjes of moeten we daar nog even voor wachten?
Gaan we nog op moeten wachten waarschijnlijk. De focus ligt nu op ATX en mATX die gebruik maken van de B350 en X370 chip.

Hier vind je al een lijstje van wat er tot nu toe is gelekt mbt tot moederborden:
https://videocardz.com/66116/amd-ryzen-motherboard-update

Aanvullend ook nog wat Mobo's van Biostar

http://www.biostar.com.tw...hp?S_ID=873#specification X370
http://www.biostar.com.tw...hp?S_ID=874#specification X370
http://www.biostar.com.tw...hp?S_ID=872#specification B350
http://www.biostar.com.tw...hp?S_ID=871#specification X370
http://www.biostar.com.tw...hp?S_ID=870#specification B350
http://www.biostar.com.tw...hp?S_ID=869#specification B350
http://www.biostar.com.tw...hp?S_ID=868#specification B350

Edit: en nu ook op HWI met wat foto's.
https://be.hardware.info/...ederborden-voor-amd-ryzen

[Reactie gewijzigd door Lambo LP670 SV op 22 juli 2024 20:35]

er komt een speciale chipset voor SFF system, de 300. ik denk/vermoed dat de meeste moederbord makers daar op zullen wachten voor ze met mitx borden komen.

heb al wel mATX borden gezien, maar dat is wel weer een slag groter.
Voor Itx moet je kijken naar de (AB/X)300 chipsets. Als het goed is komen die ook redelijk snel uit maar ze focussen eerst op het grote spul.
Leuk, nieuwe CPU's, maar waar is de rest? Er is ook een chipset en een moederbord bij nodig. Wie gaat die maken?
Tweakers is compleet waardeloos in zijn berichtgeving. Gewoon bij de buren kijken, die heeft de presentatie integraal op zijn pagina staan.

https://nl.hardware.info/...anaf-vandaag-te-bestellen

82 mobo's @ launch. 19 OEM's die iets gaan bouwen, 200+ verwacht in Q1. Chipset zit overigens vrijwel compleet in de CPU.

Hier wat meer mobo: https://nl.hardware.info/...ederborden-voor-amd-ryzen

[Reactie gewijzigd door jaquesparblue op 22 juli 2024 20:35]

Meer MoBo bij alternate
https://www.alternate.nl/...tml?query=am4%2B&x=9&y=13

en bij Azerty:
https://azerty.nl/search-...ting=0&limit=12&view=grid

[Reactie gewijzigd door PanaLover op 22 juli 2024 20:35]

Ik vind het Tweakers artikel iet wat eenzijdig in het vermelden van de prijsverschillen.
AMD positioneert de Ryzen 7-processors getuige de naam én getoonde benchmarks tegenover Intels Core i7-processors, waarbij de i7-6900K tegenover de 1800X wordt gezet en de 1700X tegenover Intels i7-7700K.
De 1800X zou dus vergeleken moeten worden met een veel duurdere I7-6900
De 1700X zou dus vergeleken moeten worden met een nu al goedkopere i7-7700

Eigenlijk is dus alleen het veel te dure topmodel van Intel een beetje bedreigd maar op de andere high end processors zit AMD in een vergelijkbaar (of duurder) prijsniveau

/edit
Ik heb de slides nu bekeken en daar staat de 1700X gewoon gepositioneerd tegenover de i7-6800 en niet de i7-7700K. Het is de 1700 (zonder X) die tegenover de i7-7700 wordt gepositioneert. Dat X'je scheelt daar toch wel Tweakers !!!

[Reactie gewijzigd door TWyk op 22 juli 2024 20:35]

En daar zit stukje tegenstrijdigheid in, Hardware.info zegt namelijk dat de 1700 (non-X) tegenover de 7700 zou staan.

1800X 8-core Core i7 6900K
1700X 6-core Core i7 6800K
1700 Core i7 7700K.

Dat geval is de 1700 weer een fractie goedkoper.

Met note dat enkel de non-X dus met cooler komt, de 2 X modellen dus blijkbaar niet.
de x-jes komen met een andere stock koeler.
Hardwareinfo zegt
De Ryzen 7 1800X en 1700X worden overigens zonder koeler geleverd. Bij de Ryzen 7 1700 bundelt AMD een nieuwe koeler die luistert naar de naam Wraith Spire.
moest even zoeken, maar dt las ik van de week.

https://www.overclock3d.n...wraith_max_coolers_leak/1

Wraith max zou de naam zijn.

edit: zie nu dat er 2 skus zijn een met en een zonder koeler.

[Reactie gewijzigd door Anoniem: 631510 op 22 juli 2024 20:35]

De slides bij het artikel zeggen dat ook.
Dat is denk ik ook met reden dat volgens linus de non-x varianten niet echt geweldig OC. En waarschijnlijk ten alle tijden met een stock koeler kunnen wegkomen. Net zoals Intel de K variant zonder koeler levert.

[Reactie gewijzigd door loki504 op 22 juli 2024 20:35]

En toch is ryzen de betere prijskwaliteits cpu. Heeft meer kernen en single core kan het eindelijk concurreren met die van intel voor een veel aantrekkelijkere prijs gezien de aantal cores die je mee krijgt.

Intel heeft bij deze een zeer geduchte concurrent gekregen. Eindelijk en dat werd tijd!
" voor een veel aantrekkelijkere prijs gezien de aantal cores die je mee krijgt."

dat telt alleen als je ook daadwerkelijk 8 cores nodig hebt. als je niet de allernieuwste triple A games speelt, of video encode, dan kun je wel meer cores kopen, maar dat is net zoiets als een SUV kopen om je kinderen naar school te rijden.
Daarin heb je gelijk. Voor mij is het nodig en amd is nog helemaal niet klaar mee hoor ;) ze gaan nog komen met quadcores en hexacores en nog stukken lagere prijzen. Voor iedereen wat wils en prestaties die met de tijd meegaan eindelijk en dat werd tijd!
ik ben ook zeker positief, maar ik wacht voorzichting testresultaten af n vooral de vergelijking op single threaded price/performance in vergelijking met intel cpus waarbij je geen 100 euro dokt voor hyperthreading.

dat amd hier wint in de multithreaded tests is logisch, die benchmarks zijn gemaakt om extreem goed te schalen, het is nu eenmaal qua price performance goedkoper om 2 cores op 3ghz te maken dan 1 die boven de 4ghz draait, stock. dat is al sinds pentium naar core2 het geval.

de hogere ipc die ze aangeven in singlethreaded tests is een beetje een wassen neus als hun cpu 1ghz minder draait dan intel of een veel langere pipeline heeft.

mochten (de quadcore versies van) deze cpus ook single threaded tegen een i5 op kunnen boksen voor hun prijs niet alleen in benchmarks maar ook in echte use cases als games of andere real-time dingen, evt met overclock, dan heeft amd weer een gouden schaap gevonden, en spring ik asap op de hype train.

[Reactie gewijzigd door Origin64 op 22 juli 2024 20:35]

Ik ook man. Maar mijn gevoel is erg sterk dat dit de kip is die gouden eieren gaat leggen ( jij de schaap en ik de kip :p )

Voor mij is het 13 jaar geleden dat ik een amd systeem gebouwd heb en sinds die tijd geen pc meer gebouwd lol omdat ik meer een console gamer ben maar wil weer gaan gamen op pc en me wii games (43 originele games in bezit) nieuw leven in te blazen met dolphin en video wil gaan editen en foto's bewerken. Vind het ook zo mooi dat er al heel veel keus is qua moederborden en hele mooie prijzen ertussen plus dat ik naar vega uitkijk
Licht eraan hoe je het bekijkt. De AMD R7 1700X is misschien dan duurder maar wel een stuk meer prestaties. Misschien komt er straks een AMD R5 top model dichterbij de i7 7700 die een stuk goed koper is. Maar ik geef je inderdaad gelijk dat de prijsvermelding iets eenzijdig is.
Ligt er eraan hoe je het bekijkt. Multicore of Singlecore performance. Nu is de multicore prestatie gepakt, want ja 4 cores meer presteren natuurlijk beter :+ . Single performance is nu niet getoond, de 77000/ 7700k single core performance ligt namelijk nog wel hoger dan die van de 1700/1700x. Dus de vraag is: Waar heb ik meer profijt van? Is dat A) Meer Cores, of is dat B) Snellere cores? Zodra je voor jezelf die vraag kunt beantwoorden, kun je ook een betere keuze qua CPU maken schat ik ;)

- Dit betekend niet dat ik de Ryzen niet tof want, want dat zijn ze zeker. We moeten ons alleen niet laten afleiden door mooie grafiekjes.
De i7-7700 heeft 4 cores minder dan de vergelijkbare R7 1700.

De i7-7700 is ook niet unlocked, de duurdere i7-7700K wel. Die is dan weer 20 dollar duurder dan de R7 1700.

[Reactie gewijzigd door iTiamo op 22 juli 2024 20:35]

De 1700X zou dus vergeleken moeten worden met een nu al goedkopere i7-7700
Ik vind dat een vreemde vergelijking van AMD: de 1700X is een ocotcore, de i7 7700 is een quadcore. Volgens de gelekte benchmarks ligt AMD amper (5-10%) achter op singletread performance, dus de 1700X is gewoon een pa beter dan de i7 7700.

Of mis ik wat?

[Reactie gewijzigd door kiang op 22 juli 2024 20:35]

Ik zie niet hoe de 1700x van 399 dollar te vergelijken is met de i7-7700 qua prijs. Tenzij je het hebt over dollar vs dollar. Denk dat de 7700 net wat goedkoper is. Gelukkig presteert de 1700x natuurlijk veel beter en op het niveau van de 6800K 6-core van intel. Hun scores vind ik wel overdreven in die dia's. Ze lagen wat meer op elkaar volgens die gelekte images van CB.
De 1700 is tegen i7 7700K
Niet de normale 7700.

Dus ook die is goedkoper.
Ter info: de i7-6900K heeft een TDP van 140W.

AMD had de naam dat hun processors veel energie verbruikten, dan is het wel knap om te zien dat de 1800X beter kan presteren, minder energie verbruikt en de helft kost van een i7-6900K. Maar dit zijn de cijfers van AMD. Bij de Bulldozer serie, bleek dat hun cijfers wellicht wat opgepompt waren.
Dus ik ben benieuwd naar de echte tests van de Ryzen-serie door andere partijen.

[Reactie gewijzigd door Hatsieflatsie op 22 juli 2024 20:35]

TDP moet je niet tussen verschillende fabrikanten vergelijken, zeker niet tussen Intel en AMD. Ze houden er ieder hun eigen definitie en berekening op na. Je kan veel beter naar effectieve verbruikscijfers kijken, maar die zijn er voor Zen natuurlijk nog niet.
Met dat verschil dat AMD over het algemeen een veel ruimere marge neemt dan Intel als het op TDP aankomt. Waar AMD bijna van een worst case scenario uitgaat met betrekking tot TDP gaat Intel van een gemiddeld gebruik uit met een degelijke koeling rondom.
AMD en Intel zijn eigenlijk allebei redelijk laks. Enkele random voorbeelden van verbruik in Cinebench:

- AMD FX-8350 met TDP van 125w verstookt 200w
- AMD A10-7800 met TDP van 64w verstookt 100w
- Intel Core i7 7700K met TDP van 95w verstookt 140w
- Intel Core i3 6320 met TDP van 47w verstookt 75w
Heb je daar een bron voor?

Ik gebruik Intel CPU's in servers en doe een burn-in test waarbij ik alles 100% belast voor 24 uur en kan je vertellen dat wat ik verwacht ook is wat ik aan wandcontactdoos meet.

Misschien dat je er nog een externe grafische kaart bij hebt, dan kan het hard gaan.
Bedankt.

Meteen een overzicht van CPU's die ik dus nooit hoef te kopen :)
is dat alleen CPU of wat het hele systeem uit je stopcontact trekt?
TDP wordt door beide partijen anders uitgelegd maar komt in de praktijk op hetzelfde neer.

Dit is een non issue en dat is het ook altijd geweest. TDP is een maatgever voor het bouwen van systemen en de koeling die je erop zou moeten zetten, en daarvoor voldoet het in beide gevallen prima.
Heb je wel een idee van wat TDP is en waarvoor het staat?

TDP heeft wel een relatie met opgenomen vermogen maar deze twee zijn niet gelijk. TDP of Thermal Design Power is een indicatie die aangeeft hoeveel warmte je moet kunnen afvoeren.

En ja, om warmte te genereren moet je eerst energie verbruiken, maar je zal nooit een 1:1 relatie hebben. Een CPU met TDP van 95W zal daarom niet zomaar 95W opnemen.

En waar Intel de warmte afvoer berekend op een manier dat een PC in een warme omgeving nooit zijn volledig potentieel kan bereiken gaat AMD er net wel van uit dat zoiets mogelijks moet zijn in hun TDP berekening
Uiteraard, maar de cijfers geven wel aan dat de TDP cijfers bij beiden danig verschillen van het effectief verbruik, dat er eigenlijk moeilijk sprake kan zijn van 'worst case' versus 'gemiddeld verbruik'.
Is dat niet het resultaat wat je krijgt als de processors op Turbo frequentie draaien? Daarbij lijkt het ook te verschillen wat voor soort load er op de processor komt te staan, 100% zegt niet alles.

Een voorbeeld van m'n i7 3930K met een TDP van 130W met Aida64, HTT staat aan;

Stress CPU:
3,2Ghz - 75W
3,8Ghz - 110W
Stress FPU:
3,2Ghz - 117W
3,8Ghz - 179W
Stress Cache:
3,2Ghz - 106W
3,8Ghz - 153W
Stress CPU & FPU:
3,2Ghz - 99W
3,8Ghz - 148W
Stress CPU & Cache:
3,2Ghz - 99W
3,8Ghz - 144W
Stress FPU & Cache:
3,2Ghz - 111W
3,8Ghz - 163W
Wellicht is dat waar, maar het doet er niet echt toe. Wie heeft zijn PC nu 24/7 volledig belast?
Niet 24/7 maar een 'stabiele' temperatuur bereik je wel binnen een uur en ik verwacht dat deze CPUs vooral populair zijn onder videobewerkers die graag meerdere uren alle cores flink aan het werk zetten.
Stabiele tempraturen bereik je met luchtkoeling binnen enkele minuten al dan niet direct als je airflow goed is. Waterkoeling doet er iets langer over omdat het water nog kan opwarmen. Maar dat koelt in zijn geheel weer veel beter. Je kan hooguit stellen dat je minder druk hoef te maken als je CPU voor 10 de 95 graden aantikt. IPV enkele uren.
diehard gamers.

burn-in test..

renderen...

etc..

Meeste mensen niet.

[Reactie gewijzigd door totaalgeenhard op 22 juli 2024 20:35]

Nu kun je het ineens niet vergelijken, 'vroeger' werd AMD afgefakkeld als de TDP 5watt hoger was dan Intel.
Mee eens, TDP is slechts een ontwerprichtlijn. Het zegt onvoldoende over het werkelijk verbruik. Effectief verbruik is waar het om gaat.

Ook een praktische test is moeilijk goed te vergelijken omdat het moederbord en eventuele grafische kaart een grote invloed hebben.
Linus tech tip heeft de demo van cinebench mogen opnemen. Daar is de 1800x de winnaar. Natuurlijk is cinebench niet alles maar geeft wel een mooie indicatie.
Het was de 1700, 65w, niet de 1800.
Weet je dat zeker? Ik dacht namelijk dat het een battle was tegen de i7 6900k en de 1700 was een battlefield 1 demo. Maar ik kan het nu niet echt controleren.
Bij Austin Evans zie je ook een overclockte Ryzen.
Boven de 5Ghz er is dus ook nog veel ruimte voor verbetering.

https://www.youtube.com/watch?v=aikfO6Sw0hk

New world record in Cinebench !!
De interessante info is aan het einde van de video.

[Reactie gewijzigd door noMSforme op 22 juli 2024 20:35]

Euhm, helaas word het verkeerd verwoord. Geen wereld record, wél de beste score voor 8 cores 16 threads.
Dat record dat verbroken is, was gedraaid met een 5960x.


Wereldrecord Cinebench R15 staat op 8299cb
http://hwbot.org/submissi...x_xeon_e7_8890_v4_8299_cb


Desalniettemin zijn dit scores van Ryzen waar iedereen stiekem van gedroomd had, maar niemand had durven hopen. Chapeau AMD!

[Reactie gewijzigd door wiLLius op 22 juli 2024 20:35]

Lekker hoor! Toch nog een wereld-record.. maar dan in de 8c/16tr klasse _/-\o_
moet er wel ff bij zeggen dat het TDP van 140 erg ruim is voor de 6900k. en de 6950 (met 10 cores) heeft het zelfde TDP, even als de intel 6 core: ook 140. die 140 is dus niet hun verbruik, maar de range waar ze in zitten.

De tests met metingen uit het stopcontact moeten echt uit gaan wijzen wat het verbruik gaat zijn. maar als de metingen van AMD enigsinds representatief zijn (ze verbruikte net iets minder in blender en handbreak) dan is het verschil in verbruik klein genoeg dat niemand op de desktop er iets om zal geven.
TDP, ook wel Thermal Design Power, heeft vooral te maken met de koeling. Die 140 waar jij het over hebt geeft aan dat je een koeler nodig hebt die 140w kan verkoelen.
Het lijkt erop dat AMD vooral een chip heeft die weinig warmte verliest.

Normaliter is er een heel sterk verband tussen energieverbruik en warmteafgifte, maar dit hoeft zeker niet lineair te zijn. Wat je zegt is in ieder geval helemaal waar: we moeten wachten op metingen uit het stopcontact om serieus wat te zeggen over energieverbruik.
Alles wijst erop dat het verschil inderdaad nihil gaat worden.
Kun je dat toelichten? Je zegt dat er niet altijd een linear verband hoeft te zijn tussen energieopname (watts) en warmteafgifte.

Ik heb altijd geleerd dat energie niet verloren kan gaan, dus waar gaat die energie dan heen? Aangezien een CPU geen geluid maakt en niet beweegt blijft volgens mij alleen hitte over als enige 'energieuitweg'.
Dat zou impliceren dat hetgene wat de CPU voor je berekent 'gratis' is. Dat kost ook energie :)
Dat zou je inderdaad verwachten, maar niets is minder waar :) . Je hebt een vaststaande hoeveelheid energievormen, zoals bijvoorbeeld kinetische energie (beweging/vervorming), licht, warmte, elektrische energie, hoogte-energie, enz.

Daar staat echt niet iets bij als 'rekenkracht', uiteindelijk gaat er gewoon veel elektrische energie in, en komt er veel (99.9999% wss) warmte en een miniscuul beetje aan elektrische energie (signalen door de socket) weer uit. Verder heb je nog een paar fans en wat leds die wat anders doen dan alleen je huis verwarmen, verder is alles een +-100% efficiente kachel :)
ik heb een idee: ipv datacenters bouwen vol met servers waarbij extra energie gebruikt moet worden voor koeling, kan in huizen naast de kachel een flinke bak worden neergezet die dmv distributed computing je huis kan verwarmen.

nog een zonnepaneeltje op het dak en we zijn helemaal cradle to cradle :)
Klinkt leuk toch? Maar nog veel leuker: het bestaat! Er zijn een aantal verschillende initiatieven beschikbaar, maar de eerste die ik vond is bijvoorbeeld:

http://www.nerdalize.com

Probleem blijft dat een cpu of gpu veel duurder te produceren is en er dus een flinke inverstering benodigd is. Toch is het in principe even efficient als de weerstanden die we nu gebruiken in electrische kachels, alleen zit je ook weer met een beperkte deltaT(emperatuur) vanwege de temperatuurlimiet van chips. Erg interessant en zeker niet ondenkbaar tho :)

[Reactie gewijzigd door Ultrapc op 22 juli 2024 20:35]

het kan ook op grotere schaal: een heel bedrijfspand verwarmen door in de kelder een datacenter te plaatsen. ja het vereist investering, maar je neemt van de 'dubbele' kosten van op de ene plek koelen en de andere verwarmen meer dan de helft weg, en het rendeert ook. de terugverdientijd moet onder de levensduur van de hardware kunnen als je goedkopere chips gebruikt, evt op een ouder productieproces. immers is ineens de warmteproductie en de benodigde stroom niet meer de grootste kostenpost. die kosten maak je toch al. en je bent meteen van aardgas af.

wat was dat project van intel ook alweer een paar jaar terug waarbij ze een 100-core cpu wilden maken op een ouder procede?

ik zie grote mogelijkheden.

[Reactie gewijzigd door Origin64 op 22 juli 2024 20:35]

Jouw idee is niet nieuw, maar is best lastig daadwerkelijk te implementeren. Uitgaande dat je gemiddeld 15m3 per kW kunt verwarmen, en ongeveer 3m2 aan vloeroppervlak nodig hebt per rack

- Een rack dat 16 ampere stroom verbruikt, wekt 3,68 kW aan warmte op.
- Dat is dan gelijk aan 55m2 kantooroppervlak dat je daarmee kan verwarmen.
- Dat betekent dan 18m2 kantoorruimte per m2 aan datacenter ruimte.
- Bij ongeveer 10m2 per werknemer kun je met 1 rack dus net 2 werknemers comfortabel warm laten werken.

Een beetje forse CV ketel voor grote panden doet zonder veel moeite 80 kW. En dan hebben we het over een ketel die niet meer dan 1m2 nodig heeft aan ruimte. Dat staat gelijk aan 60m2 aan datacenter ruimte.

Kortom, je moet eigenlijk belachelijk veel hardware hebben in verhouding tot je aantal werknemers. Dat rekensommetje kan daardoor waarschijnlijk alleen uit bij datacenters, om hun kantoor te verwarmen. Bedrijven die een paar racks hebben voor hun eigen spullen hebben komen hier niet mee uit.

Daar komt bij dat een in-house datacenter ook duur is, het vergt onderhoud aan systemen die relatief duur zijn bij weinig racks. (generatoren, airco, etc)

Bovendien is de temperatuur dat een server uitspuugt niet warm genoeg. Met een beetje geluk is dat 40 graden, en als je die lucht dan ook nog moet transporteren naar een andere ruimte koelt het nog verder af, waardoor het waarschinlijk niet warm genoeg is.

De te lage temperatuur is bijvoorbeeld ook de reden dat warmte van datacenters niet wordt gebruikt voor de verwarming van bijvoorbeeld kassen.

Ook ontkom je niet aan investering voor koelmachines, want in de zomer moet je nog steeds je racks koelen.

Kortom, het plaatje klopt zowel financieel als thermisch niet.
als de lucht zijn warmte afstaat binnen het gebouw zal het grootste deel van die warmte een tijd in het gebouw blijven. je hoeft het niet direct in de gezichten van de werknemers te blazen. zelfs als het alleen de betonnen muren en plafonds opwarmt heeft het al nut.

je punt over de onderhoudskosten is inderdaad een praktische reden om het nu niet te doen, maar dat zal ook steeds verder geautomatiseerd worden. ook worden de support systemen rap goedkoper.

in de zomer hier in nl zul je inderdaad alsnog wel actieve koeling nodig hebben. maar dat is dan een kwestie van de warme lucht naar buiten leiden ipv naar binnen en een flinke airco hebben die je alleen in de zomer aanzet ipv het jaar rond. daar ontkom je toch niet aan tenzij je het fijn vindt bij 30 graden te werken.

ik bedoel niet dat we dit nu meteen met zn allen moeten doen, maar als we als nederland als doel hebben helemaal groen te gaan zie ik best mogelijkheid om naast maatregelen om energieverbruik terug te dringen van systemen door alsmaar zuinigere chips en betere isolatie te gebruiken, we ook efficienter kunnen zijn door een tekort op de ene plaats en een overschot op de andere plaats bij elkaar te brengen door de schaalvergroting op sommige plaatsen een beetje aan banden te leggen. als langetermijnding voor 2050 ofzo. dat kost dan inderdaad wat, maar het bespaart ook. de overheid kan dan subsidieren. ze gooien nu ook al bakken met geld tegen elke windmolen aan. is dat dan zo efficient? klopt d'at plaatje financieel? imo niet, en volgens mij boeit het ook niet.
ik ben me bewust waar TDP voor staat.

en bij een CPU is verbruik = warmte (+ een minuscule hoeveelheid I/O)
als AMD minder warmte verliest, dan verbruiken ze ook minder.

intel geeft aan dat je een koeler van 140 watt moeten hebben, maar als de cpu's minder bruiken als dat TDP (zeg 100 watt ipv 140) dan zou een koeler geschikt voor 100 watt ook werken.

Het is maar een indicatie van de fabrikant.
Anoniem: 511810 @Richh22 februari 2017 18:40
Rekenenergie zou kunnen worden geïnterpreteerd als -TdS dus de vermindering van chaos bij een bepaalde temperatuur.

Voor de benadering van dS zijn voor informatietechnologie wel wat formules op Wikipedia te vinden maar ik kan je nu al verklappen dat de huidige CPU's in de orde van femto Joules per seconden aan nuttige rekenarbeid verrichten.
Ik denk dan ook niet dat de door jou aangehaalde niet lineariteit meetbaar is.
De demo waar jij het over hebt, waarin het verschil tussen Ryzen en I7-6900 is op een niet geoptimaliseerde Rezyn systeem uitgevoerd.

https://content.hwigroup....editorial/1920/003137.jpg

Het idle verbruik ligt volgens AMD ook minder dan 20 watt lager dan de i7-6900. Dat is toch een behoorlijk verschil.
Klopt, mijn FX 8350 heeft ook een lager TDP, maar niets is minder waar. Eitje bakken :Y)
Ik beschik over dezelfde CPU van AMD een FX-8350 dus.
(De TDP van de FX-8350 zit rond de 125 Watt)
En heb nu inmiddels twee weken tussen het stopcontact en de verdeeldoos die hier onder mijn bureau staat waar mijn PC en de randapparatuur op aangesloten is, een wattage meter van de Hema zitten (deze meter kwam destijds het beste uit de test door de consumentenbond)
En nu ik dit zit te typen zit i rond de 130 a 140 Watt uit mijn stopcontact te trekken kan ik melden, dat is dan inclusief monitor, muis, en toetsenbord.
Dat laatste (een toetsenbord) leek me wel zo handig, anders typt het wat lastig :P

Even aangevuld met mijn volledige system specs, lijkt me iets makkelijker om zo een "goeie" vergelijking te kunnen maken namelijk, dus bij deze:
CPU is dus een FX-8350
Werkgeheugen is Corsair Vengeance @1866Mhz (twee sticks van 8GB)
Videokaarten zijn twee EVGA SC GTX760's.
HDD's betreffen drie 3TB HDD's inclusief drie 250GB SSD's.
Geluidskaart is een ESI Audio MAYA44 Xte.
En dat alles zit in een Asus Crosshair V Formula-Z Moederbord gestoken :Y)

[Reactie gewijzigd door SSDtje op 22 juli 2024 20:35]

Dat valt inderdaad nog goed mee dan!
Ik heb steeds de indruk dat hij in toeren gaat (de koeler) zelfs bij licht gebruik.
Maar ik heb het nog nooit gemeten, maar las er wel veel over online.
Zeker bij full load :)
Ik kan je melden, dat als ik hier de game cities skylines op ga lopen draaien, dat i van mij ook goed warm word, en er ook zowat een eitje op kan bakken.
En dat met een vloeistof koeler erop gemonteerd met een koel-oppervlak van 140mm bij 280mm (Corsair H115i, om precies te zijn)
Dus je bent echt niet de enige, ze kunnen nu eenmaal goed heet worden.
Wat maakt dat mijn PC ook regelmatig bijna opstijgt ;)

Edit: Typo

[Reactie gewijzigd door SSDtje op 22 juli 2024 20:35]

Dan zou AMD toch even een tik uitdelen hoor :)
Hopelijk kunnen ze het waarmaken, want AMD heeft bij mij altijd een streepje voor!
Ik zat ook naar het verbruik te kijken en ben benieuwd hoeveel de quadcores gaan verbruiken. De Ryzen 7 1700 3GHz met 8 core en 16 threads verbruikt maar 65 Watt, zo eentje in een quadcore uitvoering zal zeker interessant worden qua verbruik.
EN, laten we niet vergeten, al deze Ryzen chips passen in dezelfde socket! Dat scheelt nog eens 100 euro in de aanschaf van een moederbord, waardoor het effectieve prijsverschil tussen de 1800x en 6900k op 650 dollar komt, ofwel 62% goedkoper dan de intel concurrent. Ongeloofelijk.
Erm, je koopt een AM4 mobo en je kan inderdaad alle aankomende Ryzen CPU's erop prikken. Wat bedoel je met 100 Euro verschil? :?

Met een beetje mazzel kunnen de Ryzen+ CPU's ook gewoon in AM4 Mobo's. Dat is eigenlijk altijd een sterk iets geweest van AMD, vs. Intel. Je mobo (toch al goedkoper vs. Intel), gaat meerdere generaties mee.
Als ik vluchtig naar de moederborden in de pricewatch kijk die 6 en 8 cores ondersteunen van intel, dan zie je behoorlijke prijsverschillen met moederborden voor de intel quadcores. Bij AMD kan je een 8 core chip kopen die in elk AM4 moederbord past. Als je niet wil overklokken maar wel veel cores wil, kan je dus bv. die R7 1700 kopen en in een entry-level mobo prikken wat, hopelijk, niet veel meer dan €100,- zal kosten. Dat is een besparing die je nog bij het prijsverschil tussen de processoren kan optellen wanneer je een heel systeem bouwt.

Mijn eerste berekening zal wel niet kloppen, omdat ik verwacht dat 'premium' moederborden waarschijnlijk wel duurder zullen zijn, en zo'n bord zullen mensen met een 1800x wel willen aanschaffen. Echter, als ook instap moederborden overklokken ondersteunen, dan kan je dus ook zo'n 1800x in een goedkoop bordje prikken en daar heel veel uit halen. In dat geval zou dat prijsverschil van 62% nog redelijk kunnen kloppen.
Wel "maar" 24 pci-e lanes...
Maar verder uitermate indrukwekkend :D
Ze hebben veel zaken in de CPU ingebakken zodat moederborden ook goedkoper kunnen worden, echter betekend dat niet dat dit de max is

Als je meer PCI-e Lanes nodig hebt, pak je een moederbord die dit via een chipset verder uitbreid.
Pci-e switches don't play well met pci-e passthrough (virtualisatie).
En via de chipset werkt vaak ook niet lekker op dat vlak.
Bij intel 2011(-03) platform zijn er meerdere cpu's met 40 pci-e lanes vanuit de cpu...

Niet dat 24 weinig is, maar niet genoeg voor 2 pci-e 16x sloten. Zelfs niet voor 16 + 8 tenzij er niets anders aan die lanes wordt gehangen...
Al scheelt het wel dat bij ryzen zaken als audio en usb voor zover ik weet ook al zijn ingebakken in de cpu.

[Reactie gewijzigd door Spekkie88 op 22 juli 2024 20:35]

Ik ben inderdaad ook heel benieuwd of dit een ommekeer gaat opleveren!

Dezelfde snelheid voor de "helft" van de prijs betekent dat bijvoorbeeld ook high end laptops een stuk goedkoper worden.

Een hele interessante periode gaan wij tegemoet!
amd is zo slecht nog niet. om 'er zo ver mogelijk van weg te blijven' is beetje onzinnig. ze hebben hele goede producten qua prijs/kwaliteit
Het zal z'n leeftjd zijn. Hoe oud moet je zijn om de glorietijd van AMD mee te hebben gemaakt, en dus kunnen geloven in waartoe ze in staat zijn?
Haaah, vrûûger. Toen de Athlons nog gehakt maakten van de Pentiums. Mooie tijd.

Ik kijk er behoorlijk naar uit om weer eens een AMD hok te bouwen. Mijn HTPC is aan vervanging toe, dus ik volg Ryzen op de voet. Beetje nostalgie in de woonkamer :)
Anoniem: 180171 @D-Day22 februari 2017 16:33
34 hier.. ik kan me geen glory tijd herrinneren.. zover ik weet was het en is het nog altijd intel.. ik ben erg benieuwd naar deze series.. mijn pc is weer toe aan een upgrade.
Pentium 3 tijd gemist zeker?
Daar walste AMD over Intel heen :)

Zou heel mooi zijn als die tijd weer terugkomt en AMD weer op de kaart gezet wordt in ieder geval.
De eerste Pentium 4's waren echt dramatisch slechter dan de toenmalige AMD processoren. In de tijd Tussen de laatste Athlon Thunderbirds en de eerste Athlon-64's was AMD beter dan Intel (Oké, ik ben al 57).
maar toen verkocht de specialist echt geen nep-pentiums want daar kreeg je virussen van... dus hij kon het niet weten. ik ben ook 34 en heb duidelijk anderen ervaring.
Ja en die warmte van amd :)
Dat was ook de glorietijd van radeon ongeveer toch.
Laatste jaren helemaal intel met nvidea... Wel leuk als het weer een keer andersom kan.
PIII 1Ghz hield het voor iNtel op.
Heb AMD Thunderbird 1200 gehad.
AMD beat iNtel.
de PIII 1,133Ghz werd weer van de markt gehaald. Paniek voetbal iNtel.

Dan kwam nog Thunderbird 1400.
De P4 ging daar ver overheen. Ook gehad met Rdram 512MB
Maar de IPC viel tegen en CPU markt volgde de klokken. AMD in zwaar weer,
PIII 450Mhz toen gekocht voor novalogic Voxel games
TB1200
TB1400
P4 OC tot even sneller dan top model.

P4 en Tulatin PIII op 130nm en AMD liep weer achter.

Nu PhenomII X4 965 en i920

45+ en onze eerste was iNtel 80386S 25Mhz met later Weitec FPU erbij
De Athlon, Athlon XP en de Athlon 64 zijn aan u voorbij gegaan?
Anoniem: 180171 @hubhib23 februari 2017 10:56
Nee hoor meegemaakt en zelfs nog een athlon gehad.. maar heb tijdens die processor altijd het gevoel gehad dat mijn pc minder aankon.. meer moeite met alles had.. en ik bedoel niet in snelheid.
Ik ben dertig, en heb die tijd wel meegemaakt 😉
precies. in de GPU kant hebben ze mij al. miss dat de CPU's mij ook nog overhalen ^^
Anoniem: 706671 @AFGPoro22 februari 2017 16:47
Ik verlang naar AMD in laptops qua cpu.

Ik heb altijd Intel gehad en ik wil AMD maar er zijn enorm weinig AMD cpus voor laptops :(
De gelekte benchmarks laten veelbelovende cijfers zien. Voor de gemiddelde desktop is de i7 altijd overkill. ;)

[Reactie gewijzigd door CH4OS op 22 juli 2024 20:35]

Tja dan moet je de juiste CPU voor je gebruik er in plakken.
https://www.youtube.com/watch?v=hNF4OyoxwlE

Nieuw cinebench record krijg je niet met een crap chip.
" mijn ervaring met AMD vs INTEL processors is dat ik zo ver mogelijk van amd afblijft.. Merk in games en programma's zoveel verschil tussen een amd en intel.."

wat schattig, je werkt zeker pas sinds 2010 intensief met computers? Als dat namelijk niet zo is ben je wel heel selectief met je ervaringen!
Sorry, maar Intel veegt al bijna 10 jaar de vloer aan met AMD, dus het is toch niet heel verwonderlijk dat mensen enigszins kritisch naar het merk kijken.
Ik denk dat jij maar is "kritisch naar het merk" moet kijken, Intel heeft een geschiedenis van omkoping van grote bedrijven, hierdoor heeft AMD veel winst verloren, winst dat gebruikt kon worden voor nieuwe technologieën. Geen wonder dat Intel nu de dominante bedrijf is zonder competitie, velen juichen en supporten AMD, dat zich op het rand van faillissement staat. Dit hebben ze nodig, of wil je liever 1000+ euro betalen voor een Intel chip, een standaard dat zij hebben bedacht door hun monopolie. ( je ziet ook veel mensen verbaasd over Zen "zo'n chip voor zo'n prijs?") Ja, zo had het altijd gemoeten.
Wie zegt dat ik kritisch naar het merk kijk? Ik gewoon welke processor de beste prestaties levert en het merk maakt me persoonlijk niet uit. Er zijn echter ook de nodige mensen die dat niet doen en zo verwonderlijk is dat niet.
Er is een verschil met kritisch naar een merk kijken en het merk meteen negeren omdat je van mening bent dat AMD veel slechter is.

Zeker als je onderbouwing nogal krom is, zoals Ornias ook al aangeeft

Als je zulke aankopen doet doe dan minimaal wat reseach vind ik

[Reactie gewijzigd door Sinester op 22 juli 2024 20:35]

Ik vind het jammer ik raakte pas geïnteresseerd in de hardware in 2014, maar ik heb mn research gedaan. Ik heb al een amd gpu gehad en ryzen zal hoogstwaarschijnlijk involgende cpu build staan.
Ik heb hier om gewacht.

Voor mij wordt het dadelijk weer sinds jaren een AMD systeem.
Ik ga mijn systeem upgraden. AMD CPU+GPU
Ik wil zelf vooral zeer snel mijn energieslurpende virtualisatieserver met dubbele Xeon vervangen door 1 van deze CPUs. Ruwe kracht doet mij daar minder dan aantal threads en dat is hier zeker dik in orde.
Precies mijn gedachte. Dit kan weleens (voorlopig) het ultieme hobby ESXi platform voor thuis worden. Afgaande op AMD van de afgelopen jaren, hoop ik dat ze niet stiekem bepaalde features hiervan gaan locken, waar Intel wel een handje van heeft (zoals VT-d locken op hun K serie cpu's).

Grappig dat vrijwel alle reacties alleen op gamen gericht zijn. Het lijkt vrijwel of iedereen de PC tegenwoordig nog alleen maar gebruikt voor gamen...
Dat dacht ik dus ook. Maar dan om er hiermee 1 te bouwen waar ik ook nog eens een spelletje op speel. Zouden ze ooit dit soort cpu's in laptops gaan zetten? Zbook met 8c/16t ? zou mooi zijn :) bijvoorbeeld bij de zbooks. Maar in een Desktop is dat prima te doen natuurlijk veel Ram, 1 van deze cpu's en een leuke gpu. Ik heb al budget vrij gemaakt :)
Dat dacht ik dus ook. Maar dan om er hiermee 1 te bouwen waar ik ook nog eens een spelletje op speel. Zouden ze ooit dit soort cpu's in laptops gaan zetten? Zbook met 8c/16t ? zou mooi zijn :) bijvoorbeeld bij de zbooks. Maar in een Desktop is dat prima te doen natuurlijk veel Ram, 1 van deze cpu's en een leuke gpu. Ik heb al budget vrij gemaakt :)
Hier ben ik ook wel benieuwd naar. Tijd voor een nieuwe laptop dit jaar denk ik :)
Hele, heb net vorig jaar een zbook aangeschaft dus die ga ik nog even niet upgraden :D denk dat ik dan mij spullen kan pakken ;)
Ik ga voor 8 cores voor Compileren in MS VS c++ ben benieuwd daarnaar.

Met IPC en klok ga ik ook kwa Single thread flink op vooruit deneb is oer quadje
Niet dat de radeon lijn het even lekker doet als de nvidia varianten voor half de prijs, natuurlijk.
Begrijp me niet verkeerd, ik vind Nvidia kaarten erg goed. ik ben niet zo merk vast. maar wat ik nu zie qua prijs en prestaties wil ik denk ik voor een complete system gaan.
Het geld dat je voor die te dure intel over houdt kun je nu in een (uiteraard ook te dure, maar dan veel betere) grafische kaart stoppen van nvidia :Y)
Of even wachten op Vega misschien? Als ze daar hetzelfde mee kunnen doen als dat ze vooralsnog met Ryzen (lijken te) doen dan kan Nvidia het ook nog wel eens lastig krijgen.
"de duurste kaart van nvidia is beter dan de amd kaart die slechts de helft kost".

Wel, duuuuh. Wil je peperdure kaarten van amd, zal je moeten wachten op de Vega generatie.
Hoezo duuuuh? De goedkopere CPU van AMD is toch even goed als dure van Intel? Ging het daar niet om?
Ik wacht nog even de officiële reviews af maar ik verwacht dat ze hooguit 10% minder zullen zijn dan deze en dan nog is het een koopje vergeleken met Intel. GPU van AMD heb ik net binnen, nieuw mobo,cpu en geheugen komen later maar zal hoogstwaarschijnlijk ook een AMD bevatten :)
Mee too!! Lets make AMD Great again 8-)
Ik had wel verwacht dat ze de prijzen lager brachten dan Intel, maar dit gaat wel heel ver. Dit is eindelijk serieuze concurentie voor intel.
Eerst wachten op echte reviews en hoe de snelheden liggen.
Dan wachten hoe goed ze echt leverbaar zijn.
Mocht het echt concurrentie zijn dan is het wachten op intel die de prijs ook zal laten zakken aangezien ze niet te veel marktaandeel willen verliezen.
De verschillen moeten wel echt héél erg verschillen wil dit in het nadeel van AMD gaan werken. Lager stroomverbruik, betere prestaties én voor een flinke klap minder geld. Het moet gek lopen wil AMD hier niet als winnaar uit komen.
Stel je gewoon even de vraag. intel heeft nu leuke marge en kan ook met lagere marge werken.
AMD maakt een cpu die vergelijkbaar in snelheid is of beter tegen een lagere prijs.
Denk je nu echt dat intel blijft stil zitten, duimpjes draaien en amd een groot marktaandeel laat opbouwen.
Denk het niet, als amd's marktaandeel te groot gaat worden verlaagd intel gewoon haar prijzen.

Vergeet ook niet dat amd al jaren op net winst net verlies zit en amd laat deze chips maken en betaald dus ook de winst van de fab. De intel fabs zitten vol en die winst pakt intel zelf.
amd kan dus leuk lage prijzen aanbieden maar maken ze dan nog winst.
Ja, simpelweg omdat AMD dat groot marktaandeel niet onmiddelijk zal opbouwen. AMD heeft zijn reputatie tegen.
Dat ligt er maar net aan naar welke reputatie je kijkt. In het begin van deze eeuw liepen ze voorop met het 64-bit platform en hun Athlon 64 chips. In de periode tussen 2003 en 2007 was het niet ongewoon om een volledig AMD systeem te zien; zowel CPU als GPU. Marktaandeel lag in beide markten tussen de 45~55%

Door meerdere oorzaken is dat marktaandeel langzaam ingezakt. Aan de CPU kant onder andere door een vertraagde reactie op ontwikkeleingen op het gebied van DDR2, maar ook door "gemene" deals van Intel met computerfabrikanten, misleidende reclame campagnes en andere onzin die niets met het product zelf te maken hebben.

Ik ben niet heel bekend met de ontwikkelingen in de GPU markt rond die tijd; maar mijn vermoeden is dat dat ook gedeeltelijk een kwestie van agressieve marketing is. "Een echte gamer heeft een Nvidia GPU" etc.

Ik denk dat het voor een bedrijf als AMD erg gezond is geweest om een periode de underdog gespeeld te hebben. Ze lijken hun R&D budget efficiënt te spenderen (i.e. met een vijfde van Intels jaarlijkse R&D budget behalen ze nu schijnbaar betere resultaten). Ook in de GPU markt wordt er flink aan de weg getimmerd met HBM en Vega aan de horizon. Voor AMD wordt het tijd om te oogsten :)

[Reactie gewijzigd door Laloeka op 22 juli 2024 20:35]

Voor het bedrijf AMD zijn de afgelopen jaren behoorlijk rampzalig geweest, constant rode cijfers schrijven, miljoenen aan GloFo moeten betalen die moeite hebben om bij te blijven (oude contracten), heel veel marktaandeel moeten inleveren. Nee, die waren niet blij.

Dat ze met een micro-budget zoveel doen geeft meer aan dat er hele goeie mensen werken (Jim Keller is aangetrokken voor Zen) die ondanks alle tegenslagen bot doorgaan. Kudos, maar geen euros.

Echter heeft het marketing-departement van AMD al tijden een probleem, ze reageren niet snel genoeg op FUD, AMD promoot actief allerlei open standaarden, en dat bekt minder dan je eigen prive-ecosysteempje opzetten, en ze weigeren er vuile spelletjes te spelen (reviewers onder druk zetten etc). Tja, dat kost je marktaandeel, want de concurrentie doet het met genoegen.

Ik ben blij dat ze nu weer goed op pad zijn, en hoop dat ze alsnog het respect ( en de euros) krijgen die ze wat mij betreft echt verdiend hebben. Echter is het lastig beweren dat de wereld eerlijk is...
dont be evil kost nu eenmaal geld. maar mocht ryzen echt een goed alternatief blijken, dan gaat het intel ineens meer geld kosten om wel evil te zijn.
AMD heeft een ander probleem.

Ze produceren niet zelf en moeten capaciteit inkopen. Daarvoor moet je een planning maken. De fab willen ook vol zitten dus amd moet goed plannen.

Probleem voor amd is dat te veel capaciteit inkopen betekend voorraden en met de prijzen en marges die ze nu hebben kunnen ze dat niet lanf volhouden.
Te weinig capaciteit en grotere vraag betekend klanten maar die ongeduldig worden en dan vooral oem klanten. oem klanten willen continuïteit.
Amd is daar al een keer de mist mee ingegaan, slecht leveren dus grote klanten met lage prijzen kregen voorrang en de kleinere konden wachten.
De ontwikkeling van een CPU duurt lang 4-5 jaar. Intel zal niet opeens iets uit de hoge hoed kunnen toveren. Of ze hebben nog iets op de plank liggen. En als Intel nu opeens de prijzen extreem verlaagd weet iedereen dat Intel al jaren iedereen belazerd met de prijzen.

[Reactie gewijzigd door kr4t0s op 22 juli 2024 20:35]

Intel loopt ook niet achter op amd dat is een groot verschil.
Zo simpel is het natuurlijk niet.

Intel zou daarmee 'toestaan' dat haar hele product stack ineens de helft waard wordt, ook in de ogen van aandeelhouders.

Ik denk niet dat ze dat zomaar kunnen verkopen. Als ze al bewegen dan zal dat stapsgewijs en geleidelijk moeten gaan, anders is de imagoschade ook niet te overzien. Ik denk dat het veel waarschijnlijker is dat Intel het via andere wegen probeert, of andere wegen icm subtiele prijsveranderingen. Schuiven met het aanbod van de product stack, zoals HT en overclocking aanbieden op alle modellen, dat soort zaken, zie ik veel eerder gebeuren dan een grote prijsverlaging.

[Reactie gewijzigd door Vayra op 22 juli 2024 20:35]

Kan je nagaan hoe consumenten zich voelen wanneer ze zien dat de processor welke ze 2 maanden geleden voor de hoofdprijs gekocht hebben nu opeens 25-50% minder kost. Dat gaat Intel geen goed doen, dus de prijs sterk naar beneden bij Intel is een utopia.
Ik weet nog de laatste cpu lancering van AMD, met die APU's welke toch wel heel erg tegenvielen t.o.v. de dromen die op voorhand waren verkocht. En eigenlijk is deze gang van zaken al heel lang zo bij AMD. Veel praat, weinig baat. Ik hoop dat AMD weer terug is net zoals vroeger, maar kans is realistisch dat het weer meer van hetzelfde is.
AMD heeft dat zelf al toegegeven en gezegd dat te veranderen.

Verder kregen we toen al ruim van te voren indicaties uit de geruchtenmolen dat het niet helemaal koek en ei was. nu met zen is dat heel anders. eigenlijke waren alle geluiden heel positief en dat continue geweest.
Het verleden is geen garantie voor de toekomst.

AMD is van 12 stage K10,5 naar 20 stage CPU gegaan en de klok target werd niet gehaald met Buldozer. Dat duid op foundry procede problemen.
AMD laatste Piledriver haald stock 5GHZ Turbo . Dat is wat ze eruit kunnen trekken.
Daarbij zijn ze met hun, bedoeld voor high-end, gebleven op 32nm ,
Dat houd in 220W tdp .

Zen zijn compactere cores dus enigzins lightweight tov big intel cores. iNtel hebben dus iets extra wat ook tDP vergroot en ergens de upperhand geeft.
AMD voordeel is dan lager TDP en dus meer OC marge.

AMD heeft altijd moeite met dieshrinks gehad. GF heeft dus de 14nm goed onder de knie dus op redelijk goed beginning niveau.
Als winnaar is denk ik wat te positief gedacht, want Intel heeft nog altijd de naam en dat zich bij velen erg vastgeroest. Maar als deze cpu's het allemaal waar kunnen maken zal het voor AMD absoluut wel winst en toename in marktaandeel betekenen en misschien ook eindelijk eens goede positieve cijfers.
Hangt wat je definitie van winnen is.
AMD is bijgekomen kwa concurreren in de boven klasse.
Dus kwa absolute performance de kroon is nog niet veel veranderd.

Kwa prijs 6 en 8 cores een heel stuk betaalbaar. Nou dat doet het hem voor mij.
Ik ga mijn oer quadje niet vervangen door quadje.
Een paar mooie dealtjes met grote fabrikanten is al genoeg. Gewoon zeggen dat ze de laatste 10% van hun CPUs gratis krijgen als ze de overige 90% ook bij Intel kopen. Dat is al vaker vertoond, Intel heeft er al voor op z'n donder gehad, maar dat wil niet zeggen dat ze het niet nog eens flikken.

Verder kun je gewoon een hype beginnen, en gaan focussen op iets lulligs als dat een test-sample wel 97.3 Watt verbruikt en dus ernstig buiten specs is. Dat gaat moederborden verbranden!

Nog een optie is stiekem iedere benchmarker een Intel compiler geven, die zoals al onbekend is standaard voor herkende CPUs wel optimalisaties gebruikt, en voor niet-herkende CPUs (van niet nader te noemen merken) gewoon niets gebruikt van wat er de afgelopen jaren verbeterd is.

Of, en dat is het meest waarschijnlijk: iedere review-site gaat single-threaded benchmarks draaien, en dan heel hard roepen dat de gebruikelijke (facebook) games daarvan afhankelijk zijn.

Kortom: rustig afwachten, en gewoon claimen dat echte gamers alleen blauw-groen gebruiken.

(voor wie het nog niet doorhad: alle genoemde grappen zijn al eens tegen AMD uitgehaald, of worden nog steeds toegepast. Your Info May Vary)

[Reactie gewijzigd door FreezeXJ op 22 juli 2024 20:35]

Deze AMD CPU's ondersteunen geen virtualisatie volgens pricewatch. Wat moet je er dan vandaag de dag nog mee?*

pricewatch: AMD Ryzen 7 1800X (YD180XBCAEMPK)

*Even google, AMD-V wordt netjes ondersteund, maar is al een begin van desinformatie :)

[Reactie gewijzigd door wica op 22 juli 2024 20:35]

De cpu's zijn net nieuw, dus niet alle informatie is voorhanden. Op jouw verzoek een specsverbeteraanvraag gedaan zodat nu wel op virtualisatie gefilterd kan worden.
Dat eerste punt heeft Intel intensief toezicht opgeleverd dus zal niet snel weer gebeuren ;)
"Lager stroomverbruik, betere prestaties én voor een flinke klap minder geld. "

if it sounds too good to be true, it probably is.

dus wat is het addertje onder het gras? ik zie een aantal opties

1. amd heeft eindelijk na jaren incrementele verandering de loterij gewonnen en een super goede architecture neergezet. hier geen addertje.
2. mensen kijken alleen maar naar het duurste model of alleen naar de i7s, terwijl volgens mij al jaren bekend is dat het intel topmodel alleen maar 1000 euro kost juist zodat het exclusief is en mensen betalen graag voor exclusiviteit. i7s en de laatste jaren ook de i5s wel zijn over het algemeen overpriced vanwege gebrek aan concurrentie, wat betekent dat intel een flinke prijsverlaging (enkele tientallen %) kan doorvoeren wanneer ze willen.
3. mensen kijken alleen naar de multithreaded price performance en niet naar de single threaded price performance in vergelijking met niet alleen i7s maar ook i5s. immers betaal je bij een i7 richting de 100 euro extra alleen maar voor hyperthreading en 2mb extra L3. ik denk dat als het op single thread/single core aankomt de verhouding iets gelijker ligt dan amd wil doen geloven.
4. andere zaken die belangrijk zijn niet alleen voor throughput maar voor delay zoals cache performance, negatieve consequenties van super lange pipeline zijn nog niet onder de loep genomen. hartstikke leuk als die cpu super hoge ipc heeft maar als alles daardoor veel langer duurt is het een tradeoff, zeker als branch prediction de plank misslaat.


maar goed, er is nu wat hype, dat is al positief
https://www.youtube.com/watch?v=3rUndzpdo1I

Niet een echte review officiële review. Maar laat wel zien dat het niet een grote leugen is geweest.
Intel heeft jaren gecasht dus ik denk dat ze niet zo rap hun prijzen zullen laten zakken. Ze gaan eerst afwachten of Ryzen goed verkoopt en dan prijsaanpassing doorvoeren.
dat zou een slechte zet zijn, intel is nu zelf al bezig met het uitvoerig testen van deze cpu en zal zijn prijzen asap aanpassen. elke cpu die amd de komende periode verkoopt had er een van intel kunnen zijn, en ze moeten uiteindelijk toch een beetje gaan zakken als ryzen dadwerkelijk doet wat amd zegt. ik denk dat ze niet al te lang wachten.
Jij wil wel heel graag een excuus verzinnen om straks weer een Intel chip te halen, of niet?

Zolang Intel de naam behoud die ze nu hebben, blijven ze op een zo-goed-als monopoliepositie zitten. Een klein beetje concurrentie is helemaal niet verkeerd voor Intel, ze krijgen al te maken met verschillende rechtszaken:
http://abcnews.go.com/Technology/story?id=3428255
nieuws: AMD: Intel verdiende zestig miljard aan monopolie
nieuws: EU legt Intel boete op wegens misbruik monopoliepositie
60 miljard verdiend aan verboden praktijken, een boete van 1 miljard en een schikking met AMD ook van ongeveer 1 miljard. Dan houden ze nog steeds 58 miljard extra over.
Misdaad loont
als je too big to fail bent wel ja
Jij wil wel heel graag een excuus verzinnen om straks weer een Intel chip te halen, of niet?
En weer iemand die denkt voor een ander te kunnen denken.
Wat ik wel of niet haal doet er helemaal niet toe.

Ik bekijk het gewoon realitsich.
Intel heeft idd een bijna monopolie positie en vooral dat bijna willen ze ook zo houden.
Amd houden ze eigenlijk al jaren min of meer in leven.
Denk je nu echt dat intel niet zal reageren als amd te succesvol gaat worden.
Daarbij is het dan nog steeds de vraag of amd geld verdiend.
Amd moet marktaandeel kopen met lagere prijzen en hogere productiekosten en dat betekend weinig tot geen winst of weer verlies.

Amd moet ook kunnen leveren, daarvoor hebben de fab wel projecties van capaciteit nodig. koopt amd te weinig capaciteit in klagende klanten omdat ze niet leverbaar zijn.
Te veel en niet verkocht krijgen betekend voorraden.

Het klinkt allemaal wel leuk maar zo eenvoudig is het dus niet.
Amd moet ook kunnen leveren, daarvoor hebben de fab wel projecties van capaciteit nodig. koopt amd te weinig capaciteit in klagende klanten omdat ze niet leverbaar zijn.
Te veel en niet verkocht krijgen betekend voorraden.
Bij AMD werken echt geen mensen die inschattingen kunnen maken inderdaad... Wat een onzinreactie; ieder bedrijf heeft hier mee te maken.

Nogmaals, je bent ontzettend pessimistisch wat betreft AMD's kunde, niet alleen hier overigens. Wellicht wil je eens kijken naar wat AMD heeft gezegd hierover. Waarom denk je uberhaupt dat ze niet afgelopen najaar zijn begonnen?

Tuurlijk gaat Intel reageren als AMD een groot succes heeft. Maar dat heeft tijd nodig. Intel moet opeens 6-core en 8-core chips naar het consumentenplatform brengen in dat geval, voor andere pricetags. Dat gaat even duren natuurlijk. In de tussentijd kan je toch gewoon voor Ryzen gaan? De argumenten raken op om AMD te blacklisten ;)
Ik ruil zo mijn Intel 6700K in voor een mooie AMD cpu, ook om ze te sponsoren...
sponsoeren kun je ook gewoon doen door geld overtemaken als je zo een groot hart voor amd hebt.
Ik zeg je, AMD gaat eindelijk een deel inhalen, wat ze 10 jaar eerder al verdiende!
Klinkt leuk maar is puur op emotie gebaseerd net als je hele verhaal, fraide monopolie so what, het leven is niet eerlijk.
bbob1970,

Mijn verhaal is verre van op emotie gebaseerd...i.t.t het jouwe...want jij wilt namelijk niet inzien wat er is gebeurt.

Dat AMD gaat inhalen is zo duidelijk als maar wezen kan, niks emotie, puur gezond verstand gebruiken.

Vergelijk, je hebt 2 idem producten(even globaal, maar laten we dat gemakshalve zeggen) Prijs A 1000 € en prijs B 700 € goh...welke gaat de consument toch kiezen...

De consument is juist enorm prijsbewust geworden met al het aanbod via internet, en tevens veel beter geïnformeerd...dus ik vraag mij af waarop jij dit dan baseert als emotie :)

Vreemde redenatie...en sponsoren wel met een doel natuurlijk...mijn toekomstige portemonnee...even verder kijken dan je neus lang is...
Grappig prijs a en b en je blijft maar geloven dat a de prijzen niet gaat verlagen als ze te veel marktaandeel verliezen ?
Wensdenken noemen ze dat.
Dat amd gaat inhalen is helemaal niet duidelijk dat moet eerst een gedaan worden, weer wensdenken.

amd is al jaren veel goedkoper dus waar zijn al die consumenten die massaal prijsbewust via internet beter geïnformeerd zijn.
Hoeveel mensen kopen er een losse cpu, hiet op tweaker, niet representatief voor de massa, misschien meer. De rest koopt systemen en die worden verkocht door grote merken.
Daar moet amd eerst maar weer voet aan de grond zien te krijgen.
Holy $h1t! Wat gaat intel's antwoord hierop zijn? Betere single-thread prestaties voor dezelfde prijs als twee keer meer cores bij AMD?
betere single thread performance vergeleken met een top segment intel cpu die 100 euro extra kost vanwege hyperthreading.

ik wil eerst een single thread price/performance vergelijking zien met een i5 zonder hyperthreading voordat ik op de hype train spring
Als je mijn comment goed leest zie je dat ik een mogelijk antwoord van intel op AMD had bedacht, namelijk dat intel zou claimen veel betere single-thread prestaties te hebben dan AMD. Echter heeft AMD wel twee keer meer cores/threads voor dezelfde prijs (8c/16t 1700 vs 4c/8t 7700k). Weet niet of je dit bedoelde, want die eerste zin lijkt niet een reactie te zijn op mijn comment (niet persoonlijk).

Single thread is ook niet zo relevant meer. Hyperthreading helpt een 7700k flink tov een 7600k op dezelfde kloksnelheid. Sommige (best veel) games en programmas werken überhaupt niet meer met minder dan 4 threads.

De benchmarks die op de event van AMD zijn gedaan door onafhankelijke tech news/review mensen, waarbij AMD soms zichzelf leek te bottlenecken door een systeem te gerbuiken met minder RAM, zagen er goed uit en je kunt dus aannemen dat de AMD processoren redelijk competitief zijn qua prestaties (zeker overgeklokt) met vergelijkbare intel cpus met evenveel cores/threads voor een veel lagere prijs. Helaas lijkt vega slechts iets goedkoper te worden dan nvidia, maar freesync schermen zijn dikwijls aanzienlijk goedkoper dan vergelijkbare g-sync schermen, dus zijn die iets hogere prestaties voor je geld voor de meeste gamers het wachten waard.
amd heeft inderdaad meer cores voor dezelfde prijs als de intel cpus die ze nu cherrypicked hebben voor hun vergelijkingen. maar ik heb hier mixed feelings over.

een aantal dingen die ik denk:

ik wil weten wat de prijs wordt van de quadcore modellen die amd gaat leveren, en of ze ook quads gaan produceren in hun topsegment voor een nog betere prijs dan de octacores. ik hoef nml. helemaal geen 8 cores. doe geen videobewerking of iets in die richting. ik speel geen nieuwe triple A games die flink parallelized zijn. wel iets oudere games waarin singlethreaded performance belangrijk is. bijv. csgo en sc2. het ziet er niet naar uit dat source 2 binnenkort komt voor csgo, en sc3 laat ook nog wel een flink aantal jaartjes op zich wachten. ik zit vast aan die engines die voor duo en quad cores gemaakt zijn, 10 jaar geleden, nog jarenlang.

intel schakelt hyperthreading nu uit op heel veel cpus en vraagt ong. 100 euro extra om het aan te zetten op een i7. (met daarbij 2mb extra L3) maar ze kunnen iirc zo de knop omzetten en het gratis op iedere cpu gaan leveren. kost ze alleen maar een beetje van hun dikke winstmarge.
als deze amd cpus straks vergeleken worden met een i5 zonder hyperthreading kan de intel zomaar betere price/performance hebben door de lagere prijs en hogere kloksnelheid als ryzen niet super overclockt vanaf die stock 3ghz.
en dan kunnen een flink aantal i5s dus ook nog zomaar met hyperthreading geleverd gaan worden. en de i7s kunnen 100 euro goedkoper. dan hebben we een situatie waarin je een amd kan kopen met meer cores of een intel met hogere performance per core, met een ander prijsverschil dan nu door amd wordt voorgerekend.
en intel kan nog meer doen om hun prijzen competitiever te maken. bijv. net als amd meer overclockbare modellen uitbrengen met een standaard veel lagere kloksnelheid om de yields te verbeteren, en de goede chips rond de 4ghz blijven verkopen a la factory OCd gpus. hun antwoord op de aloude 'amd lottery'. dat zal ook hun winst weer drukken, maar met hun grotere marktaandeel en kapitaal hebben zij een langere adem dan amd, dus daar zullen ze gewoon een kosten/baten ding overheen gooien en dan horen we het nog wel.

ook doet hyperthreading uiteraard veel minder voor single thread single core performance en kan het mij dus niet eens zoveel schelen of het op een cpu zit of niet. het is een leuke bonus. voor bijna alle andere use cases dan de mijne is het veel interessanter, daar ben ik me terdege van bewust. maar er zijn meer gamers met mijn use case.

ik geloof de benchmarks die gedaan zijn wel, maar zou niet durven preorderen op basis van die benchmarks voordat er completere tests zijn gedaan.
deze amd processoren zullen zeker competitief zijn. maar 2x zoveel cores, en hyperthreading, en vergelijkbare ipc, voor een lagere prijs, dat klinkt voor mij too good to be true. het enige wat daar tegenover lijkt te staan is de lagere clocks. daar kan nog het een en ander aan apen uit de mouwen komen.

ook freesync en gsync zijn voor mij niet interessant. zoals eerder gezegd speel ik fast paced games waarbij een hogere framerate de beste oplossing is voor screen tear, niet adaptive refresh rate. daar komt die single core performance dus weer om de hoek. botweg gezegd zijn dit imo features voor casuals die single player games spelen en voor andere omgevingen waar de visuele impact van presentatie van hele frames opweegt tegen de onregelmatigheid in de frame timing en de (kleine) toegevoegde vertraging die daarmee gepaard gaat. en in die gevallen volstaat triple buffered vsync imo al.

de conclusie dat het voor gamers het wachten waard is, vind ik vooral afhangen van wat voor type gamer je bent.

al met al kom ik dus meer uit op een grijs gebied dan op het zwart witte marketing beeld dat amd probeert te schetsen.

[Reactie gewijzigd door Origin64 op 22 juli 2024 20:35]

Die lijst met cpus en prijzen klopt tot nu toe, en daarop staan quadcores met hele lage prijzen: 4c/4t r3 1100 voor $129, 1200x voor $149, 4c/8t 1300 voor $175 en de 1400x voor $199. 15 of 21% erbij en je hebt ongeveer de europrijzen inclusief btw met voorraad en concurrentie en de srp in euros met btw.

7600k kost evenveel of iets meer als/dan de 1400x en de 1100 kost waarschijnlijk evenveel als een i3 7300, dus krijg je dubbel zoveel cores of threads bij AMD en met de 1100 overgeklokt hoogstwaarschijnlijk ook nog hogere kloksnelheden. De 6c/12t cpus van AMD kosten waarschijnlijk 270-280 euro voor de 1500 (iets meer dan een 7600k) en 310 voor de 1600x (exact tussen 7600k en 7700k). De 8c/16t cpus kosten ongeveer even veel als de 7700k, 6800k en 6850k.

Je moet je indenken dat dit vooral voor mensen die een nieuwe pc bouwen interessant is, omdat voor een klein percentage meer geld op je hele build, je aanzienlijk meer cores kunt krijgen dan bij intel (dat is ook waarom meer mensen low-end tot mid-range grafische kaarten eigenlijk moeten overslaan voor de beste prijs/prestatie verhouding). Als je veel geld besteed aan games, kan je door een paar games wat later in de aanbieding te kopen ipv meteen te pre-orderen plotseling ook meer high-end componenten kopen.

B350 moederborden met oudere geluidskaarten en mindere componenten, maar wel met overklokken ingeschakeld beginnen onder 100 euro en uiteindelijk zullen de x370 moederborden hoogstwaarschijnlijk ongeveer gelijk zijn qua prijs aan z270 versies, dus effe wachten tot meer winkels ze aanbieden en er voorraad is, of in ieder geval de pre-order fase voorbij is.

Van een a8 6600 naar een overgeklokte r7 1700x heb ik hoe dan ook aanzienlijk betere prestaties, dus ik ga sowieso upgraden naar ryzen! De extra cores tov intel 7700k/6800k kan ik gebruiken voor streamen, downloaden in de achtergrond, extreem multitasken, videos renderen tijdens editen en youtube filmpjes kijken, etc!
en met de 1100 overgeklokt hoogstwaarschijnlijk ook nog hogere kloksnelheden.

als je het risico meerekent 2 of meer keer een chip te moeten kopen voordat je er 1 hebt die lekker overclockt, gaat de prijs al snel omhoog. ze worden niet voor niets nu op 3ghz geleverd terwijl het tdp niet de bottleneck lijkt. ik wacht het heeeeeeeeeel rustig af.

als je veel geld besteed aan games, nieuwe triple A games die ook echt op zoveel cores draaien, ja, dan kun je met amd straks beter af zijn. maar er is zelfs dan een risico dat in bepaalde situaties waar ineens 1 core veel serieel werk moet doen je framerate tankt. ik weet geen gloednieuwe voorbeelden, maar als je csgo (2012) wat best goed draait op 4 cores, ik weet niet hoe het zit met 8, op een last gen amd cpu speelt, krijg je framedrops naar ballpark 1/2 van wat een iets duurdere intel doet aan minimum in dezelfde situatie, in bepaalde situaties, als je niet gpu bottlenecked bent. met de hogere ipc maar de lagere clocks van ryzen zie ik dat niet enorm verbeteren.

[Reactie gewijzigd door Origin64 op 22 juli 2024 20:35]

Jeetje, nog drie van die posts en ik ga toch maar een 7700k kopen!

Maar je hebt op zich groot gelijk om nog even alles af te wachten. Ik heb echter sinds polaris weer vertrouwen in AMD en voor mijn applicaties is een ryzen 1700x hoe dan ook gemiddeld beter dan een 7700k of 6800k, dus koop ik lekker een 6900k concurrent!
moet je ook gewoon doen als dat voor jou werkt, ik zit hier ook vooral te lullen om mijn eigen mening te vormen. :)

ik heb nu een 4670k, helaas eentje die maar 4.2 doet, maar alsnog hoef ik voorlopig niet naar een upgrade op zoek.
Die gaat nog flink wat jaartjes mee, maar mijn A8 6600 begint een beetje te traag te worden, dus ben ik genoodzaakt die te upgraden!
Vergeet niet dat je voor deze AMDs sowieso een nieuw moederbord moet kopen. Voor mensen die al een redelijk recente Intel hebben, is een upgrade naar nieuwe Intel CPU dus potentieel alsnog goedkoper.
Als je een redelijk recente Intel hebt dan hoef je meestal nog niet te upgraden.
Intel heeft geen zodanige stappen gemaakt in de laatste twee generaties dat die een reden voor een upgrade zouden vormen.
twee generaties? ik had een core i7 van de 1ste generatie hexa core i7 970 fantastisch ding draaide op 4GHz. Weg gedaan om een skylake i7 6700k... nauwelijks merkbaar op 4,6Ghz.

fantastisch dit voor AMD ik gun het ze van harte en wellicht dat ik ze nog wel een keer ga sponseren. Alleen draai ik hier vrij enthousiast hackintosh en dat wil niet zo lekker met AMD. Dat zou mooi zijn dat Apple nu eens een keer voor AMD gaat en een nieuwe MacPro in de winkel zet die lekker aantrekkelijk wordt geprijsd met zon Rysen cpu.

[Reactie gewijzigd door InsanelyHack op 22 juli 2024 20:35]

Maar wie een recente intel heeft, heeft eigenlijk geen reden om te upgraden. Tenzij het puur voor video encoding/decoding is, want daar zitten alle noemenswaardige verbeteringen van de nieuwe generatie.
Dit is inderdaad echt serieuze concurrentie voor Intel en heel erg goed voor de consumenten :P
Kan niet wachten op de eerste grote onafhankelijke reviews. Laten we hopen dat ze de beloofde prestaties ook grotendeels waar kunnen maken.
En de beloofde prijs :Y)
In de VS misschien, helaas is 329$ bij ons al gauw tegen de 400 euro :'(
Blijkbaar is er een pre-order deal afgesloten in de Benelux met ALTERNATE. Ze staan niet echt bekend om hun zachte prijzen dus zullen wel een premium vragen uiteraard. Vanavond om 19u gaan we het zien. Sowieso is wachten tot iets na maart niet slecht om de prijzen wat te laten stabiliseren.

Duitsland heeft in ieder geval wel al wel wat prijzen gelekt
https://www.computerbase.de/2017-02/ryzen-7-preis-benchmark/

De 1700 voor 359 euro
De 1700X voor 449 euro
De 1800X voor 559 euro

Edit: Staan ondertussen toch al online blijkbaar. Het premium is meteen duidelijk.
https://www.alternate.nl/Processoren/Desktop/Socket-AM4

Edit2: Azerty laat zien minder gulzig te zijn
https://azerty.nl/compone...ting=0&limit=30&view=grid

[Reactie gewijzigd door Lambo LP670 SV op 22 juli 2024 20:35]

En nu alweer verhoogd met enkele tientjes....
ik heb bij Azerty de 1700x voor 439 besteld.

dat is in lijn met de rest van Europa: http://www.amd.com/en-us/innovations/ryzen-pre-order

verwacht niet dat de prijzen veel zullen verschillen na launch.
ik kom uit op 377 euro.

omrekenen (312 euro) en btw (*1.21) erbij = 377euro.

rond de launch kan het goed afwijken, maar als AMD aan de vraag kan voldoen zullen dit de winkel prijzen zijn.

ter vergelijking de i7 7700k waarvan AMD aan geeft dat die 350 dollar kost is hier te krijgen voor 372 euro.

edit: en bij alternate kost hij 379, veel dichter bij kan je toch niet gokken zou ik zeggen.

Wel duurder als duitsland, maar daar zitten ze gewoon ONDER de omreken prijs + btw.

[Reactie gewijzigd door Countess op 22 juli 2024 20:35]

Vraag is of het sneller is in games dan de 7700K die ongeveer hetzelfde prijs heeft
Kan niet wachten op benchmarks. Het is sowieso leuk dat je een 8-core voor krijgt en niet 4-core :P

[Reactie gewijzigd door Koning Willy op 22 juli 2024 20:35]

4.6ghz is moeilijk verslaan. dus in oude games zeker niet.

in nieuwe games zal het steeds vaker minder schelen omdat 6 en 8 cores steeds vaker baad hebben.

En als de 1700 ook nog wat wil overklokken (wat de 7700k maar weinig doet) dan kan het best een hele interessante afweging gaan worden, zelfs voor mensen die echt alleen maar gamen.
Het argument dat oude games er geen baad bij hebben is alleen relevant als je verder geen nieuwe games wilt spelen. Op nieuwere hardware is de per-core performance ook beter (de meeste consumenten upgraden niet elke nieuwe generatie), dus oude games zullen waarschijnlijk ook beter draaien op het nieuwe platform. Daar komt bij dat nu upgraden waarschijnlijk ook inhoudt dat je van DDR3 naar DDR4 stapt.

Quad-cores bestaan inmiddels al een hele tijd, dus veruit de meeste games. waarvoor je een upgrade zou overwegen, zullen wel gebruik maken van meerdere cores.

[Reactie gewijzigd door Laloeka op 22 juli 2024 20:35]

Ik was de vergelijking aan het maken tussen de i7 7700k en de r7 1700. in de zin van stel je wilt nu upgraden en je moet kiezen.

voor game die maar tot 4 cores gebruiken zal de 7700k stock gewoon nog sneller zijn vanwege zijn hogere clocksnelheid. daar is met 8 cores moeilijk tegenop te boxen omdat je een lagere clocksnelheid moet hanteren.

maar in nieuwere game zal het verschil steeds kleiner gaan worden, en als de 1700 ook nog een beetje wil overklokken, dan denk ik dat de 1700 de betere keuze is, zeker voor de langere termijn.
En dan nog invoerrechten, winst voor de importeur, en winst voor de winkelier.
helaas ik zie de prijzen op alternate al :P
https://www.alternate.nl/Processoren/Desktop/Socket-AM4
maar valt mij nog mee eigenlijk
Prijzen in US zijn exclusief VAT (BTW) dus ja.. en dan nog import kosten... Wordt je niet blij van nee.
Import kosten zijn voor 90% bestaande uit belastingen. Die kan de winkel gewoon weer terug vragen. vrijwel alle chips komen bij china/Korea etc vandaan. Wat voornamelijk belangrijk is voor de prijs is het vraag en aanbod. Dat hebben we wel gezien in GPU land.
Importheffingen zijn niet terug te vragen. BTW wordt verrekend, dus als jij als particulier die processor bij een winkel koopt is hij alsnog 21% duurder dan de verkoopprijs ex BTW.
klopt. Alleen het is niet watbyron010 verkondigt dat het advies prijs + btw + import kosten is. Voor de consument dan. En zover ik weet komt dat omdat je als bedrijf wel import kosten betaalt maar een heel groot gedeelte terug kan vragen. Dus hou je vrijwel advies prijs+btw over.
Import kosten zijn voor 90% bestaande uit belastingen. Die kan de winkel gewoon weer terug vragen.

Eventuele importheffingen zijn nu net niet terug te vragen. O-)

Tenzij je refereert naar import-kosten gemaakt in de VS, door de oorspronkelijke leverancier. Doch deze zullen ruwweg gelijk zijn aan de importheffingen van de EU, dus dat zal lood om oud ijzer zijn.
US heeft geen VAT maar Sales tax, die dus alleen bij verkoop naar consument komt ipv value added tax (zoals wij die kennen in de vorm van BTW, waarbij de tussenlagen hun betaalde btw van verkoop btw mogen aftrekken bij aangifte) die bij elke verkoop aanwezig is.

Meer info Dat is toch een wezenlijk verschil, gezien het hier interessant is een bedrijf op te richten om de BTW terug te kunnen vorderen, is dat in de U.S. niet in je voordeel gezien je dan ook gewoon de sales tax (volle mep) betaald als bedrijf zijnde als je niet kunt aantonen dat het product doorverkocht word.
Daar staat tegenover een Intel 6900K voor dit moment in de pricewatch op iets minder dan 1150 Euro.
Ik heb het over de Ryzen 7 1700
Ja, maar voor de Ryzen 7 1800X neem ik die kleine prijs afwijking voor lief. Mits de specificaties kloppen allemaal. :)

[Reactie gewijzigd door Torisuta op 22 juli 2024 20:35]

Altijd nog goedkoper dan een Intel.
Vergeet niet dat er ook nog 6-core en 4-core Ryzen chips aankomen voor een stuk minder geld :)

Op dit item kan niet meer gereageerd worden.