Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: AMD komt met minstens negen high-end Ryzen 9-processors

Door , 160 reacties

De details van negen AMD Ryzen 9-processors zijn online verschenen. Als die klopppen, komt het bedrijf in ieder geval met twee processors met zestien cores en twee met veertien cores. Met de zogenoemde Threadripper-chips gaat AMD de concurrentie met Intels hedt-platform aan.

Behalve uit twee processors met zestien cores en twee met veertien cores gaat AMD's Threadripper-lijn uit drie processors met twaalf cores en nog een duo decacores bestaan. Alle processors ondersteunen Simultaneous Multi Threading. AMD's komende desktopplatform heeft de codenaam Whitehaven en is opgebouwd rond een aangepaste versie van de SP3-socket met de aanduiding SP3r2. Wccftech zet de geruchten over Threadripper, waaronder de line-up die van WikiChip afkomstig lijkt, op een rij.

Volgens de site is de SP3r2-socket oorspronkelijk ontworpen voor AMD's Naples-serverprocessors. Het zou gaan om een 4094-pinssocket. Whitehaven brengt onder andere ondersteuning voor quadchannel ddr4 en tot 44 pci-e-lanes. De processors hebben tdp's variërend van 155W voor de chips met zestien cores tot 125W voor de tiencorechips.

Het Whitehaven-platform bestaat behalve uit de processors uit het X390- annex X399-platform. AMD zou het tijdens de Computex, van 30 mei tot en met 2 juni in Taipei, willen presenteren, samen met de Naples-processors voor servers.

Met het desktopplatform voor het enthusiast-segment gaat AMD de concurrentie met Intels hedt-platform aan. Ook van de nieuwe generatie van dat platform zijn specificaties online verschenen. Het gaat bij Intel om Skylake-X- en Kaby Lake-X-processors, waarvan het topmodel 12 cores en 24 threads lijkt te krijgen, en waarvan de Skylake-X-modellen onder de naam Core i9 lijken te verschijnen.

Ryzen 9-cpu Cores/threads Kloksn./boost Tdp Geheugen Pci-e-lanes
1998X 16/32 3,5/3,9GHz 155W Quad Channel DDR4 44
1998 16/32 3,2/3,6GHz 155W Quad Channel DDR4 44
1977X 14/28 3,5/4,0GHz 155W Quad Channel DDR4 44
1977 14/28 3,2/3,7GHz 140W Quad Channel DDR4 44
1976X 12/24 3,6/4,1GHz 140W Quad Channel DDR4 44
1956X 12/24 3,2/3,8GHz 125W Quad Channel DDR4 44
1956 12/24 3,0/3,7GHz 125W Quad Channel DDR4 44
1955X 10/20 3,6/4,0GHz 125W Quad Channel DDR4 44
1955 10/20 3,1/3,7GHz 125W Quad Channel DDR4 44

Door Olaf van Miltenburg

Nieuwscoördinator

15-05-2017 • 12:20

160 Linkedin Google+

Reacties (160)

Wijzig sortering
En daar is het antwoord op de eerdere berichtgeving van INTEL 8)7 Het is echt geweldig dat deze markt weer open ligt.

[Reactie gewijzigd door sjepper op 15 mei 2017 12:22]

Echt hè, ik zag de kop en er kwam meteen een beeld in me op van iemand bij AMD die 't gelekte nieuws van de nieuwe Intel CPUs had gelezen, en die niet wist hoe snel hij hun eigen line-up naar iemand moest lekken :9

Wel twee hele mooie line-ups, zo vlak achter elkaar. Dat maakt mij wel verschrikkelijk benieuwd naar de prijzen van beide... Als AMD kan vasthouden aan zijn, over het algemeen, redelijke manier van producten prijzen, zou dit wel eens een hele interessante serie kunnen worden... Ik bedoel, 14 cores / 28 threads op 3,6/4,1GHz... :9~ Opvallend trouwens dat de hoogst geklokte 14/28 hoger ligt dan de hoogste 10 en 12 cores, meestal zie je toch een beetje dat meer cores = lager geklokt. Er zit natuurlijk ook een sprongetje in de TDP van 12 naar 14 cores, maar dan vraag ik me af: waarom niet een ook tussenstapje in TDP van 10 naar 12 cores en dan de 12 core ook hoger klokken?

EDIT: zie dat de tabel inmiddels gewijzigd is en de 1976X nu inderdaad als 12/24 erin staat.

[Reactie gewijzigd door casparvl op 15 mei 2017 13:33]

Lijkt me een foutje. Waarschijnlijker dat de 1976X 12/24 is. Ook gezien de tekst
Laatste getal in typenummer * 2 = aantal cores. Behalve bij de 1976X. Lijkt dus inderdaad op een typefout.
Ik vraag mij toch eerlijk af wat je met al die cores moet aanvangen. 8-cores ok, 10-cores gaat ook nog, maar alles daarboven vind ik zwaar overkill als je deze cpu's louter voor games gaat gebruiken. Games maken sowieso gebruik van max 8 cores.

AMD had ook beter nog een 6- en 8-core aangeboden.
  • Ten eerste, het feit dat de huidige games van maximaal 8 cores gebruik maken zegt natuurlijk vrij weinig over wat games in de toekomst zullen doen. De algemene trend is dat games steeds complexer worden (dus zwaarder voor de cpu) en steeds beter gebruik weten te maken van parallelle hardware. En met een dergelijke high-end chip wil je uiteindelijk toch wat future proofing hebben.
  • Daarnaast, dit soort enthusiast-grade chips zijn sowieso complete overkill voor gaming. Deze speeltjes zijn bedoeld voor twee groepen: mensen die er genoegen uit halen om het beste van het beste te hebben, puur omdat het kan; en mensen die behoefte hebben aan een hoop processorkracht voor professionele doeleinden, maar geen behoefte hebben aan de extra features van server-grade hardware. Dus zaken zoals video rendering, scientific computing, een kleinschalige webserver, etc.
Het platform op zich is niet overkill voor gaming want de 44 pci-e lanes gaan sommigen gebruiken voor een x16/x16 crossfire/sli setup en dan nog een pci-e ssd erbij. Het aantal cores vd cpu is serieuze overkill voor gaming, dan heb je met een 8-core of 6-core al genoeg, maar die gaat AMD dan waarschijnlijk niet aanbieden, al blijft het een gerucht natuurlijk.
Ik kan zoveel dingen bedenken waarbij meer als 4 cores handig is.

Eigen plex server, heb je wel bekant een core per transcode nodig als je mensen aan hebt hangen met rommel apparatuur waarbij er altijd getranscode moet worden. Sluit daar je familie op en wat vrienden en een I5 quad-core is net niet.
Zit zelf naar een Ryzen 8 core te kijken hiervoor.

Daarnaast ja, voor games is een snelle quad-core op zich genoeg.
Maar als je serieus aan Twitch etc. doet en ook in de weer bent met webcams + green screens etc. effecten toevoegt kost je dat ook wel een halve core/core erbij.
Dat is eentje die je net niet kan missen als je alleen maar 4 cores hebt, dus 6 is wel nice voor de prosumer of professional digi-artist.
Maar in dit thread hebben we het toch echt over minstens 10 core. ;) Sterker, Fredi had het specifiek over 12 cores en meer.
Dit is voor servers en render bakken.
Niet voor servers, daar is Napels voor.
Jij zegt: hardware fabrikanten moeten zich aanpassen aan wat programmeurs doen. Ik zou het andersom willen stellen: programmeurs zouden zich moeten aanpassen aan wat er met de huidige hardware kan.

De groei in meer single core throughput is érg moeilijk geworden: de groei uit het aantal GHz is er al wel een tijdje uit. Wel weten hardwarefabrikanten op (voor mij) magische wijze nog steeds wat meer winst uit hogere instructions-per-clock te persen, maar ook dat zal steeds complexer worden. De makkelijke (en daarmee meer haalbare) oplossing is gewoon meer cores - en een programmeur die zich daarop aanpast.
Lokaal een game hosten, er zelf op gamen, Steam video broadcast en downstream(TV) op een ander scherm met wat extra browser taken(video) tussendoor zonder dikke frame drops zou wel mooi zijn.
Dit stond natuurlijk allang klaar om 'gelekt' te worden op de marketingafdeling.
Echt hè, ik zag de kop en er kwam meteen een beeld in me op van iemand bij AMD die 't gelekte nieuws van de nieuwe Intel CPUs had gelezen, en die niet wist hoe snel hij hun eigen line-up naar iemand moest lekken :9
Nooit gehoord van cartel-door-journalist?

Partij X wil iets afspreken met partij Y maar mag dat niet.

Dus belt partij X een journalist en zegt "He, psst, geheimpje weten? Volgende week gaan wij de prijs verhogen naar X...".

Vervolgens belt de journalist naar partij Y en zegt "Ik heb gehoord dat X de prijs gaat verhogen naar .... op maandag. Gaan jullie dat ook doen?".

Waarop partij Y zegt "goh wat een toeval, wij wilden onze prijs toevallig net verhogen naar .... We publiceren het maandag!"

Zo weet iedereen ongeveer wat de rest gaat doen, zelfs als de preciese details niet bekend zijn.
Klinkt leuk, maar ik vraag mij echt af of je wel wat hebt aan zoveel cores.

Ik heb liever dat ze een quad core op 10Ghz maken of zo. Dat zet veel meer zoden aan de dijk.
Transistors schakelen nou eenmaal niet zo goed op die frequentie. Meer parallel doen is wel een optie.
Weet ik. Maar er moet echt wel een manier zijn om die 4Ghz barrière te doorbreken. Met nieuwe materialen of technieken. Parallel verwerken heeft ook z'n grenzen.
Wat let je om daar onderzoek te naar gaan doen?

Ik zou beginnen met theoretische natuurkunde en/of sterrenkunde omdat je dan dingen leert over de beperking van
- de lichtsnelheid, en hoe ongewenst het is als delen van de chip in een andere clocktick zitten dan andere.
- dat je dat kunt voorkomen door kleiner te schalen maar dat je daarmee het quantummechanische effect van tunneling krijgt, en tunneling is echt een bitch
- er ook gewoon ouderwetse thermische problemen zijn omdat een heel piepklein chipje wat lastiger koelt dan een iets minder piepklein chipje

Maar los het vooral op, je zou in het proces zomaar een Nobelprijs of 2 kunnen oplopen omdat je dan ook direct oplossingen vind voor nogal fundamentele problemen.

TL;DR het is niet zo eenvoudig, anders hadden ze allang oplossingen gehad.
Die chipontwerpers zijn echt duivelskunstenaars. Alles wat ik op mijn briljantste momenten kon bedenken, deden zij al in de jaren 80. ;)
dat dacht Intel ook met de pentium 4...
was toch niet zo'n top idee...
AMD Piledriver is als een iNtel Netburst light. Ook meer pipeline stages. Zou iig beter op klok schalen. Mits procede goed onder de knie is.
Daarbij ook CMT om SMT te counteren.
Idd, heerlijk dit. kan niet wachten wat de prijzen ook allemaal gaan doen.
Gezien de prijzen voor de Ryzen 7 1800X op 549 staan, Gok ik dat de consumenten zo rond de 900 - 1000 gaan betalen voor een Ryzen 9 - 1998X
De consument die 1000 euro voor een cpu betaald is niet echt een doorsnee consument.

De markt voor dit soort cpu's is beperkt tot twakers, gamers en zakelijke markt. Voor de massa markt is het veel te duur.
Als je een cluster gaat vullen met duizend stuks, kan het al snel heel erg de moeite lonen. :)
Dat is nog een vrij schappelijke prijs als we eerlijk zijn.
Voor een 16 core Xeon betaal je meer. Je hebt dan minder Ghz maar wel ECC ondersteuning.

Als deze Ryzen 9 processors nou eens volledige ECC ondersteuning zouden hebben dan zou ik zonder twijfel een 1998X halen voor mijn nieuwe build.
Hebben alle ryzen cpu's niet al ECC support?
Van wat ik gelezen heb is dat niet helemaal waar... Zoals ik het interpreteerde is het verschil tussen Intel en AMD dat Intel expliciet ECC ondersteuning uitschakeld voor hun consumentenchips waar AMD dat niet zou doen?.. Iets in die richting, dat het of wel of niet werkte maar echt uitsluitsel kon ik zo nergens vinden. Ik wil wel gegarandeerd ECC support vanuit de vendor ondersteund.
Dan hebben ze het dus in principe wel aan boord. Zou met dit platform dan best kunnen dat AMD ook verwacht dat de moederborden ECC ondersteunen. Zou dan genoeg moeten zijn dus.
Aan de andere kant zullen de enthusiasts niet heel veel nog aan ECC hebben. Het echte server platform daarentegen.

[Reactie gewijzigd door flessuh op 15 mei 2017 13:54]

Ja kijk ik wil dus een FreeNAS VM draaien en zou het dus wel fijn vinden om ECC te hebben. Sowieso DDR4 ECC gaat tegenwoordig ook gewoon tot 2400 en dat is -in praktijk- snel zat (iig op intel.. dunno of dat dan op AMD negatieve invloed gaat hebben op dingen als CPU/game performance)... hmm... lastig.
Ja kijk ik wil dus een FreeNAS VM draaien en zou het dus wel fijn vinden om ECC te hebben.
Hou wel rekening met het feit dat FreeNAS expliciet het afraad om hun OS virtueel te draaien.

Voor de goede werking van het ZFS filesysteem is het belangrijk dat alles direct op de hardware draait. Lees eerst even de FAQ op de site van FreeNAS hierover.
Sowieso DDR4 ECC gaat tegenwoordig ook gewoon tot 2400 en dat is -in praktijk- snel zat (iig op intel.. dunno of dat dan op AMD negatieve invloed gaat hebben op dingen als CPU/game performance)... hmm... lastig.
ECC RAM en gamen? Waarom? Voor normale thuissituaties heb je geen ECC nodig. Dat ene omgevallen bitje kan weinig kwaad. ECC RAM is een stuk trager in gebruik dan normaal RAM vanwege het foutcorrectie mechaniek dat alle meerdere keren checkt.
"Voor de goede werking van het ZFS filesysteem is het belangrijk dat alles direct op de hardware draait. Lees eerst even de FAQ op de site van FreeNAS hierover."

Joh, meen je dat nou? Ik snap dat je wilt helpen maar ik ben geen totale kleuter. Er is zoiets als pci-e passthrough en laat ik dat nou willen gebruiken om een (door FreeNAS ondersteunde) LSI HBA (dus géén raid kaart) door te geven zodat FreeNAS direct toegang heeft tot de schijven.

Voor 'thuissituaties' is ECC ram niet per se nodig nee.. alhoewel er ook mensen zijn die aanraden OVERAL ECC geheugen te gebruiken. Dat trager zijn dat zal wel meevallen gezien ik op dit moment DDR3 gebruik op 1066mhz met standaard timings, DDR4 ECC op 2400mhz zal wel degelijk sneller zijn dan mijn huidige geheugen en dat is in principe al snel genoeg. Overigens valt die vertraging door ECC wel mee, schijnt maar 2-5% langzamere accestijd op te leveren..

En de reden dat ik graag ECC wil is omdat ik van plan ben om vrijwel al mijn content (van games tot data) in FreeNAS als ZFS op te slaan. Uiteraard gebruik ik dan ook een SSD als L2ARC maar ik ben ook van plan om een sloot geheugen in die machine te proppen voor ARC (64-128gb) zodat ik toch goede redundancy heb en grote opslagcapaciteit gebruikmakend van HDD's maar wél ook razendsnelle accestijden en laadtijden. :+
[...]
ECC RAM en gamen? Waarom? Voor normale thuissituaties heb je geen ECC nodig. Dat ene omgevallen bitje kan weinig kwaad. ECC RAM is een stuk trager in gebruik dan normaal RAM vanwege het foutcorrectie mechaniek dat alle meerdere keren checkt.
Dat het trager is, in de zin dat de latency toeneemt, wil ik wel geloven. Je moet namelijk in de CPU een extra check doen en dat kan pas een kloktik later nadat het binnen is. En aangezien gamers geheugen uitkiezen op CAS-timings, zou die kloktik uit kunnen maken. Voor de bruto doorvoersnelheid trouwens weer niet.
Maar een omgevallen bitje maakt wel degelijk uit. Dat kan resulteren in bijv. een corrupt filesysteem.
Dat het zelden voor komt, mits je binnen de specs blijft en niet overklokt ;) , ben ik het wel mee eens. Maar de gevolgen kunnen wel heel groot zijn van 1 omgevallen bitje.
Volgensmij wat ik van een interview kon herinneren; Is dat ECC niet officieel ondersteund is bij de Ryzen proccesors (weet niet zo of dit voor alle modellen geldt) maar wel aanwezig is op de chips en 'mogelijk' werkt.

https://www.reddit.com/r/...radeon_and_other/def5ayl/

Hierboven in de link toelichting door AMD zelf.
Ja 'mogelijk' werkt is dus niet goed genoeg... officiele ondersteuning vanuit de bakker is wat ik zoek. :+
In de comments zeggen ze zelf dat het wel gewoon werkt, maar niet officieel als feature vermeld is. Maarja geen officiële ondersteuning dus.
De gewone ryzen CPU's werken ook met ECC;
Het zijn de moederborden die niet allemaal ECC ondersteunen.

Deze zijn gebaseerd op de server CPU's, dus zullen ze ook officieel ECC ondersteunen
AMD Ryzen is niet ECC gecertificeerd. Het werkt wel... Maar het is niet zo server grade getest als de Naples chips die binnenkort uitkomen.
Volgens mij ondersteund ryzen 7 zelfs ECC..
Schappelijk? Dit is erg goedkoop.. als Intel hetzelfde bied ben je meer kwijt.
De vraag is; Wat heb je aan ECC voor een werkstation / gamebak / renderbak?
Kan nooit een goed antwoord vinden op die vraag.
Ik denk dat het voor een GameBak wel mee valt, maar hoe kritischer de berekeningen zijn, hoe fijner het is om er van uit te kunnen gaan dat berekende waardes ook de juiste zijn. Denk aan bv raytracen of fractals. Een kleine fout achter de komma is niet erg, maar als dat vervolgens mee wordt genomen in een volgende berekening, en weer, en weer , kan dat van aardige invloed zijn op het geheel. EEC geheugen helpt om die kleine fouten te minimaliseren. Het zorgt er voor dat de bit die berekend wordt, een 0 of een 1 ook echt een 0 of een 1 is. Het helpt niet tegen slecht programmeerwerk :).

https://en.wikipedia.org/wiki/ECC_memory
edit: spelling, punten, komma's

[Reactie gewijzigd door Tweak3D op 15 mei 2017 17:43]

Niet alleen met berekeningen is het van belang.
Als je data je lief is, wil je ook ECC geheugen, want een bitje wat omvalt in een gecomprimeerde- of encrypted file is ook dodelijk voor alle data die erna komt.
Of bij het gebruik van een pointer in een datastructuur. Zeg maar alle programma's.
En naast ECC-geheugen wil je vergelijkbare redundantie eigenlijk ook in je opslag, zoals bij ZFS, BTRFS of CEPH
Ja, inderdaad, mijn volgende mobo neem ik Met ECC ondersteuning.
Thanks, goeie
Ik wil graagt zien wat ze op APU gebied gaan doen, of ga actief met HP en dergelijken onderhandelen over een leuke "Desktop vervanger Laptop!"

Ryzen 5 + Radeon R460 = FUN!
Probleem is alleen wel dat die huidige radeons nog behoorlijk slurpen; in een laptop gaat een AMD-gpu vooralsnog niet met het groene kamp kunnen meekomen.
Meh, wil gewoon een desktop vervanger geen Intel. En al helemaal geen Intels die eindigen op "U". Dat zijn gewoon Core I3's die als I7's verkocht worden. 2 uur batterij tijd is genoeg voor mij, ik moet er namelijk gewoon op kunnen werken. Beetje extra gewicht is ook niet erg. Maar er dient wel een dedicated GPU in te zitten, Radeon of Geforce maakt me niet zoveel uit, maar ik maak 3D engines voor het bedrijf waar ik werk, en die wil ik wel kunnen testen ;).

Hoeft echt niet het snelste een, maar een intel IGP is me toch wat te bescheiden.;). R460 of GTX 1050 is al meer dan voldoende.
Zelfs voor een desktopvervanger heeft AMD op het moment echt geen enkele speelbare kaart in de hand.
Overigens, genoeg gtx1050 laptops met i5 hq cpus, dat voldoet prima aan je eis. Je kunt wel blijven wachten, maar in de huidige generatie ga je gewoon nog geen AMD gebaseerde laptop naar jouw smaak vinden, vrees ik. En is dat stickertje dan écht zo belangrijk?
Ik wil gewoon geen Intel Meer. En ja dat stickertje is belangrijk voor mij, al was het alleen maar omdat ik concurrentie wil stimuleren. Intel heeft lang genoeg geheerst.
Komt de schaalbaarheid van Ryzen toch nog goed van pas :9
De afbeelding die je daar zit zijn al een paar maanden geleden gelekt. Het is eerder dat Intel reageert op AMD door alle hun gelekte informatie .
Ja het ziet er goed uit maarja het blijft een gerucht.
Ik hoop echt dat deze chips op de markt komen, dan kunnen ze de concurrentiestrijd met intel bezegelen. En krijgen we gezonde concurentie op het highend platform.
Ik hoop echt als deze op de markt komen dat ze sneller zijn dan die intel chips.
Als dat gebeurt zal ook intel de prijzen moeten verlagen, zodat we concurentie krijgen hoger in het segment.
Ik kan alleen maar zeggen amd ga zo door.
Mijn eerste gedachte is ook : Jaaa, er moet wat te kiezen zijn, geweldig!
Ik weet alleen niet of midden-segment en low-end ook zoveel verschillende CPU's krijgt als de High-end!
Het is maar welke doelgroep je ben.
Ik als multiuser en zwaar game element zal nog altijd bij intel blijven omdat de prestatie per core simpelweg beter is vooralsnog.

Daarnaast is amd helemaal niet zo goedkoop voor de gamer onder ons.
Dit is wel heel snel na de de aankondiging van Intel. :?
Ik gun het AMD echt.
Toch maar na een half jaar ofzo een 1956 halen t.v.v. mijn oude i5 2400.

[Reactie gewijzigd door KOEKiEh op 15 mei 2017 13:38]

Dit is wel heel snel na de de aankondiging van Intel. :?
Het is vast geen toeval, zeker niet aangezien ze beiden hun processor het cijfer "9" hebben toegewezen. Natuurlijk wisten ze van elkaar dat er iets aan zat te komen. Op een bepaalde manier wordt het pas echt interessant als de prijzen bekend worden. Voorspellen dat de concurrentie met een chip komt met een bepaald aantal cores en een zekere snelheid is niet zo heel moeilijk.
Dat ze tegelijkertijd dus een enigszins vergelijkbare processor presenteren verbaast dus niet, nu is de vraag voor welke prijs ze het kunnen doen.
Het lijkt erop dat Intel een koekje van eigen deeg krijgt :)
Daar lijkt het op, maar voordat deze op de markt zijn heeft Intel hier weer een antwoord op gevonden .Telkens als AMD een stap zet maakt Intel er twee.(afgelopen 5 jaar)
Snap niet dat er maar 2 merken pc processors maken en niet meer ,terwijl de markt wereldwijd is.
Alsof ze elkaar in stand houden of zo .
"Snap niet dat er maar 2 merken pc processors maken en niet meer ,terwijl de markt wereldwijd is."
Dat heeft alles te maken met licenties.
AMD heeft licenties bij Intel voor x86
Intel heeft licenties bij AMD voor AMD64

Anderen mogen, zonder licentie, geen compatibele processoren bakken.
Populaire, maar foute aanname. En we hebben ook wel anderen gehad (IGM, Cyrix, Transmeta) x86 en AMD64 zijn "alleen" maar schemas om instructies te nummeren, en nummers zijn wettelijk nauwelijks beschermd (vandaar ook dat de "Pentium" (TM) na de 80486 (geen TM) kwam).

Wat wél beschermd is, is hoe Intel z'n SSE4 en AVX geïmplementeerd heeft. Je hebt weinig aan het feit dat je het nummer van SSE4 instructies mag hergebruiken, als je geen fatsoenlijk hardware ontwerp hebt voor die instructie.
Dus ze houden elkaar in stand door geen licenties aan andere fabrikanten te geven .
Dit is mijn punt ,het lijkt of Intel het kleinere AMD gedoogd zodat het lijkt dat Intel geen monopoliepositie heeft .
Nog sterker, de machines waarmee de chips van Intel en AMD worden gemaakt komen allemaal uit Eindhoven .

Vergelijk dit met de auto industrie waar b.v. Duitsland ,Frankrijk en Italie gemiddeld per land al 4 merken produceren .

[Reactie gewijzigd door vman128 op 15 mei 2017 13:58]

Ja en meer dan de helft van die merken zijn gewoon dochters van grote concerns :D
Maar al die merken zijn zelfstandig begonnen en veel later pas overgenomen.
Ja, bij chips neem je dan ook de naam van de grote partij over. Ooit waren er zat, Cyrix, VIA, National Semiconductor, noem ze maar op. De meeste zijn overgenomen, of hebben zelf de handdoek maar in de ring gegooid, want de investeringen vooraf zijn gigantisch. De return on investment begint pas te lopen bij heel veel chips, tot die tijd maak je verlies.
Anderen mogen, zonder licentie, geen compatibele processoren bakken.

Het mag wel, als je maar veel geld in je projectje pompt( Betalen dus voor licenties)
Intel heeft door list, bedrog en monopoly misbruik alle 14 andere bedrijven met een x86 licentie de markt uit gedreven. Enkel AMD is nog over.
En toch rennen veel mensen er achteraan alsof het een soort heilige graal is, zou dat door de houding van intel komen en is men gewoon vergeten hoe gemeen intel is geweest de afgelopen decennia?

Het lijkt er wel op, ik hoop dan ook dat er nog een derde speler bijkomt en als dat een "rare" chinese cpu is dan is dat prima wat mij betreft.

Zo langzamerhand is heel de wereld in handen van een paar grote spelers en dat begint raar te worden, bedenk dat als je boodschappen doet of winkelt je dat maar bij 10 bedrijven doet en dat is wereldwijd..... Veelal is vrije keuze dus een illusie en dat stoort/vertraagt onze ontwikkeling enorm.
De markt is moeilijk om in te beginnen.. zeer duur en het is lastig om iets te doen tegen de bestaande muur van patenten.. Hiernaast is de ontwikkelingscurve ook zeer lang.. en de vernieuwing relatief hoog.. Plus als je er aan begint moet je nog opboksen tegen een intel.. Niet erg uitnodigend om daar aan te beginnen.. tenzij je een product hebt wat echt rock solid is natuurlijk..
Die stappen van Intel waren nou niet echt stappen te noemen. Oudere i5/i7 ivy-bridge doen nog zeker niet onder voor de nieuwe kabylake cpu's.

AMD had toen gewoon nog geen goede chip en kon intel niet bij houden omdat het een hele nieuwe basis nodig had voor nieuwe chips.

Nu is het eindelijk zo ver met de Ryzen lijn, en nu ga je zien dat intel extreem lui is geweest en nu flink moet aanpoten en geen grappen meer kan uithalen zoals skylake-kabylake.

Dit gezegd te hebben denk ik echt niet dan intel vanaf nu veel voor zal blijven op AMD. Ik ben dan ook erg blij dat ik nu van intel af kan wijken en een goedkopere keus heb, die net zo goed presteert en in sommige gevallen beter!
Het ultieme bewijs van iNtel luiheid zou zijn dat AMD over iNtel heen walst met 25% meer IPC. Nou dat doen ze niet ze benaderen iNtel op geringe afstand.

Dat houd in dat meer lijkt dat iNtel de ceiling bereikt heeft en verbeteringen heel subtiel worden maar viervoud de 'effort' en R&D kosten.
Als iNtel lui is dan zou Zen 2 ook ver over iNtel heen moeten walsen. Een minder dan 5% staat voor mij dat 'ceiling' is behaald met hun conventionele aanpak.

Het is al bekend dat Zen 2 een veel kleinere verbetering zal zijn.
iNtel Heeft het feitelijk bewijs wat nu werkelijk kan als IPC leider in de X86-64 markt. Maar wat maximale is hoe veel meer kan er nog uit gewrongen worden.

Het lijkt mij dat andere even menen dat intel ook even een 40% boostje effe kunnen doen. Dat Zou betekenen dat Core flut is . Netburst factor tractor en piledriver extreme fails waren.

Lijkt mij eerder dat er grens dicht benaderd wordt.
Dit zijn de 2 overlevers.
I recall VIA x86 CPU's, Cyrix x86 CPU's en zo waren er nog wel een aantal.

En Intel zet geen 2 stappen meer, op dit moment. Right now zitten ze weer in de leidersstoel die ze pakten toen de Core2Duo uitkwam; In the lead by an arms' length.

Overigens heeft Intel zijn uiterste best gedaan AMD uit de markt te drukken middels prijsafspraken en exclusiviteitscontracten. Dat was ze ook bijna gelukt en heeft AMD 10 jaar (en haar fabrieken) gekost. Intel is daar ook meermaals gerechtelijk voor veroordeeld, met boetes oplopend tot 2,5mld$. Dat, in combinatie met een desastreus verlopen overname van ATi.

[Reactie gewijzigd door Timoo.vanEsch op 15 mei 2017 15:40]

De leiding pakten ze eigenlijk zonder het te weten met de pentium3 tualatin. Daar Warren de pentium M's verder op ontwikkeld. (Banias en dothan)
Toen kwam Intel met de core solo op de desktop (yonah). De hoogst geklokt tualatin's zoals de 1.4ghz werden dan ook uitgebracht in de dure s variant voor servers. Dit omdat ze als consumentencpu hun eigen hoger geklokte Pentium 4 kachels beconcurreerden.
De laatste partij die overwas was Via(Na de overname van Cyrix). In 2013 zijn er nog een paar testsemples x64 cpu's gelekt, maar sinds 2013 mogen ze ze niet meer zomaar uitbrengen..

http://wccftech.com/via-2...ore-processor-benchmarks/

Niet bepaald high-end, maar VIA kennende zouden ze ook bijna niks gekost hebben, en daarnaast superzuinig zijn. Alsnog lijkt me de vraag naar een ding als dit niet al te groot.
De afbeelding die je daar zit zijn al een paar maanden geleden ''gelekt''. Het is eerder dat Intel reageert op AMD door alle hun gelekte informatie .
Ter waarde van? Het zal wel een t.v.v. typo zijn toch? Anders ga je wel héél bedrogen uitkomen ;).

Maar goed, ik verwacht eerlijk gezegd niet dat iemand deze processors veel huishoudens gaan binnen komen. Ik gok dat de goedkoopste 10 core 800 euro+ gaat kosten. Welke toepassing gaat die uitgave verantwoorden?
Ben eigenlijk wel benieuwt wat meer cores voor MS visual studio C++ compileren beteken kan.
Vooral met Template manie sinds C++11 of 14 vergt dat veel van linker en compiler.

Compileren van kleine projectjes van mij voldoet mijn ouwe Deneb. X4
Maar framework bestaande uit meerder projecten en demo moest ik toch wel een heel stuk langer wachten.
Hoe meer cores hoe zinlozer voor de meeste gebruikers. Voor het gros zou meer coresnelheid leuker zijn.

Ook veel werkgerelateerde workstationtaken hebben weinig baat bij al die threads. Je moet echt specifieke dingen willen wil dit echt nuttig zijn.

Ook verschuiven bepaalde goed te paralleliseren dingen naar de gpu waardoor het nut van meer cpu cores afneemt..
Deze CPU's zijn bedoeld voor de HEDT markt. Dus niet voor de gaming, maar eerder voor (semi)professioneel gebruik waar men power nodig heeft.

Jammer dat ze niet gaan passen op de standaard AM4 borden, maar dit was te verwachten. Drukke tijden voor de Moederbord fabrikanten.

Overigens hier nog wat extra info over de roadmap:
https://videocardz.com/69...ver-hawk-great-horned-owl

Snowly Owl/Naples = 32C64T 14nm
Starship = 48C/96T 7nm!

(Tijdlijn is inmiddels alvast wel wat verschoven..)
Toch stond er bij de afbeelding van Intel's i9 in de slide toch duidelijk 'High end Gaming'.
Ze kunner er zoveel bij zetten, feit is dat je voorlopig meer dan genoeg hebt aan een i7-7700 of zelfs een i5-7500.

Voor gaming is het complete overkill om een HEDT aan te schaffen. Met het geld dat je bespaart koop je een nieuwe PC wanneer je huidige niet meer voldoet.
Als je als dev de power van een moderne cPU wilt benutten. Moet je game architectuur zwaar optimaliseren en ontwikkelen voor efficient multi core gebruik.
Als je 4 cores hebt moet je die 4 vol benutten. turbo mode met 1 core op hoge klok is factor 1.5 tov 4. Nou denk dat veel games wel 4 cores benutten al dan niet helemaal vol.
Dus 6 cores moet het ook mee schalen.
16 cores moet ook mee schalen.
Schaalt een game niet of blijk meer cores niet goed benut kunnen worden.

Kan ook zijn dat het soort game niet CPU veeleisend is en zwaar optimaliseeren leid tot verdelen van lichte taak over heel veel cores die amper belast worden.

In de dev wereld is premature optimaliseren ongewenst en als het niet nodig is wordt het ook niet gedaan.

Daarnaast als men richt op 4 core en cPU load ook de mainstream budged 2core SMT en 4 core als target ziet. Mainstream richten de big titels zich op.

Dan zal het vaker zijn dat het GPU bound zal zijn.

Het probleem is dat Effect Physics en gPU GFX heel schaalbaar is en gameplay onafhankelijk. AI en gameplay physics wilt men juist gelijk houden als zelfde game experience geven. Houd in als minimum eis is ouwe quad core. Zal gameppay physics en AI daarmee redelijk verwerkt moeten worden. Voor moderne CPU een lichte last.

Dus willen games zwaar gaan met SMP voor meer dan 16 cores dan heb je game concept nodig waar AI en Physcs ook gameplay schaal baar is. Of heel hogere cPU eisen. Zoals RTS Waar met 16 cores 10000 units mogelijk zijn met 2core HT 400 units Shooters zijn vaak niet zo schaalbaar en eisen vallen vaak ook mee. Vooral de singleplayer corridor shooters of RPG
En daarmee als ouwere of budged 4 core voldoet dan moderne 16core ook

Wat wel kan gebeuren is als je nu 16 core gebruikt en dat 5 jaar of meer mee moet.
In 2020 8 core de upper mainstream is geworden voor redelijk wat triple A games als minimum eis.

i920 & Deneb X4 hier. gebruik mijn spul lang. Dus koop dit jaar iets met zware nadruk op future proof.
HEDT moederbord en CPU is bij elkaar zeker 500 euro duurder dan mainstream. Op dit moment krijg je daar nauwelijks meer performance uit.

Over twee jaar koop je voor die 500 euro die je bespraart een nieuw mainstream mobo en cpu als dat dan al nuttig is, zo niet dan wacht je wat langer.

HEDT pewrformance voor games staat niet in verhouding tot de extra kosten.

Future proof kopen deed ik vroeger ook, guess what dan komt er een nieuwe ontwikkeling (zoals M.2) en kom je eer achter dat je future proof machine dat niet ondersteunt terwijl een nieuwe mainstream machina dat wel doet.

Overigens ben ik voor mijn gaming overgestapt van een Ivy Bridge 6 core 12 thread CPU naar een Haswell 4/8 met 100MHz hogere kloksnelheid. Die laatste was in alle spellen sneller. Terwijl de IPC van Haswell echt niet in de buurt van 50% hoger is. (ca 11%)
Dat begrijp ik maar ook daar moet je goed bedenken of bijv 16 cores 32 threads zinvol is. Het zit op een punt dat vaak die extra cores niet efficient meer ingezet kunnen worden.

Voor cpu renderen zijn ze te gek natuurlijk, of als je echt multitasked, etc

maar bijv Premiere of After Effects kunnen vaak al niet efficient meer omgaan met zo veel threads.
Het probleem is dat games zeer dynamische belasting kunnen zijn. Vooral games met event die game zwaar belasten. Als dat event die sterk leund op CPU.
Is het heel normaal dat sommige situaties zoals oprijen met avatar tegen muur de belasting extreem licht is. Maar globale destuctie event even extreme piek belasting is .
Dat houd in dat Phyiscs systeem even de threadpool flink met jobs gaat vullen en even 20 threads zwaar aan werk kunnen zijn. Hier gaat runtime game even breed om piek op te vangen.

Een sniper game waar realistic balisticks simuleerd. Is slecht parralleliseerbaar.
Maar als er in game spectre aan komt met gatling gun spray full simulated balistics
een howitser de gegenereerde geologische destructie en object destructie op fine mazige manier dan kan je wel even flink breed gaan.

side kick met neuralnet.
starship waar je als ensign dienst doet maar crew als AI AL nearalnet gesimuleerd wordt.

Er zijn games die meer constante belasting hebben maar vooral ook veel met grillige.
Sommige zijn relatief grillig maar licht en FPS locked. Dan merk je er niet veel van. Behalve dat de hardware zuiniger is als meer idle. MEt af en toe pieken die binnen de perken blijven.

Tja dan CoD als dev bepaalde formule toepast.
Hier is de core gameplay, arena multiplayer FPS heb je bepaalde eisen aan GFX en CPU. Die zijn niet zo extreem.
AI nvt
GFX ben je te druk mee dat het niet lang kan boeien.

Je zou een Mega texturing tegen woordig DX11.3 of DX12 tiled resources.
Louvre als map gebruiken. Maar ja heeft dat meerwaarde als je daar ADHD te keer gaat.

Of eerder een Flower waar je in zo een high detaild museum doeken in detail worden weergegen. slow en relaxed door heen struind.

Een voorbeeld die goed schaald is RTS genre. 10000 units 10000 dat AI routine bezig kan zijn en voor 10.000 units in beeld heb je DX12 of Vulkan nodig om voorbij die 2 tot 5K limiet te gaan. Dat zou een wat meer constantere zware goed mutithreaded schalende belasting zijn.
Of mmorpgs. Ik zou willen dat eve beter gebruik maakte van mijn 6 cores ipv langzaam te worden in grote gevechten :(
Al zijn de gevechten meestal zo massaal dat de nodes onderuit gaan O-)
"ff" 2000 man in een zonnestelsel O-) O-)

[Reactie gewijzigd door hackerhater op 16 mei 2017 09:48]

Er zijn belachelijk veel taken die je multithreaded of zelfs parallel kan draaien. De ontwikkelaars moeten het echter ook echt gaan toepassen en de tools moeten het toegankelijker maken. De ontwikkelingen gaan echter hard die richting op, dus dat komt wel goed :)
"Belachelijk veel taken?" Dat valt tegen. Het is niet eenvoudig om voor games meer dan een paar cores vol te gebruiken. Je kunt nu eenmaal niet 24 frames tegelijkertijd uitrekenen, je moet steeds wachten tot het ene frame klaar is voordat je het volgende kunt renderen.

Lees dit maar eens:
https://msdn.microsoft.co...op/ee416321(v=vs.85).aspx

Zeker voor PC's heb je de neiging om voor max settings te gaan (hoge resolutie, hoge kwaliteit). Dan staat je GPU te stomen en is de bottleneck, Terwijl je 5 jaar oude quad core I7 uit de 3xxx of 4xxx generatie uit zijn neus staat te eten.

Bij consoles is dat wat meer uitgebalanceerd.

Ik zie dus voor deze processoren vooralsnog geen toekomst in de PC games markt.

[Reactie gewijzigd door RwinG op 15 mei 2017 13:54]

Het renderen van een frame is juist iets dat gigantisch parallel gebeurt, waar juist een GPU (bestaande uit een grote hoeveelheid cores) heel handig voor is. Daarvoor ga je juist niet 24 frames tegelijk renderen: Het renderen van frames is juist 1 van die taken die zo goed als perfect schaalt over 100en cores.

Je refereert een handleiding naar de docs voor de 360, waarbij het aansturen van de GPU (note: Het gaat hier dus om het versturen van de render-commands van de CPU naar de GPU, niet het renderen zelf) slechts op 1 thread kan gebeuren. Het is relatief nieuw dat het aansturen van de GPU zaken verspreid kan worden over meerdere threads. Denk hierbij aan DX12, Vulkan & Mantle. Ook zijn er steeds meer tools beschikbaar om met minder CPU instructies complexe render-instructies naar de GPU te sturen.

Verdere voorbeelden: Vroeger moest je ieder puntje van de driehoek 1 voor 1 naar de GPU sturen, terwijl je tegenwoordig gewoon een gigantische blob aan driehoeken met 1 commando naar de GPU kan sturen. Vroeger moest je ieder driehoekje transformeren naar screen-coordinates, tegenwoordig doe je dat door een stuk code te uploaden naar de GPU (shaders). Vroeger moest je alle punten in driehoeken uploaden naar de GPU, tegenwoordig kan je benaderingen van vormen sturen en de exacte vormen op de GPU genereren (tesselation/shaders). In alle gevallen wordt de CPU-belasting in totaal lager voor dezelfde render-actie. Door het gebruiken van moderne standaarden hoeft de CPU dus steeds minder te doen, en dat terwijl we de mogelijkheid hebben gekregen om de dingen die gedaan moeten worden, op meerdere threads te doen.

Andere taken tijdens games zijn ook heel goed te verspreiden over meerdere threads. Denk aan physics, AI, path-finding, etc. Een game is veelal een simulatie van meerdere objecten tegelijk, waarbij ieder object zijn eigen gedrag heeft. Je kan ieder object simuleren op een eigen thread en dat is dus allemaal prima schaalbaar. Het renderen moest tot op heden op 1 thread gebeuren, maar dat is ook oud nieuws en zelfs dan heb je nog de n-1 andere cores over voor alle andere taken die een game doet die je wel kan verspreiden over meerdere threads.

Many-core CPUs zijn echt de toekomst wat mij betreft en dat gaat prima werken. Juist voor games zijn er juist heel weinig zware taken die je niet kan verspreiden over meerdere threads. Games die daar geen gebruik van maken, hebben de rekenkracht niet nodig of zijn gemaakt in een tijd dat many-core CPUs nog niet echt doorgekomen zijn.

Zodra deze many-core CPUs echt mainstream worden krijg je ruimte voor een nieuwe generatie aan games die veel meer ondersteund wordt op simulatie van grote aantallen en/of kunstmatige intelligentie. Cities Skylines is een leuk voorproefje, die met gemak iedere CPU op z'n knieen trekt met een degelijke simulatie van verkeer

[Reactie gewijzigd door Gamebuster op 15 mei 2017 14:24]

Het renderen van een frame is juist iets dat gigantisch parallel gebeurt, waar juist een GPU
Het gaat helemaal niet over de GPU. Natuurlijk doet die alle pixels in parallel. Het gaat over het klaarzetten van de renderdata naar de GPU wat de CPU moet doen. Wat ik bedoel is dat meer CPU power of cores niet gaan helpen om meer grafische performance te krijgen. De render thread van de CPU blijft sequentieel (beeld voor beeld). En de GPU is al snel de bottleneck.

Natuurlijk kun je meerdere threads gebruiken voor physics of simulatie van objecten. Dat is wat anders, je haalt dat door elkaar met "renderen". Dat heeft weer niets te maken met de FPS die je haalt. Het grootste gedeelte van je reactie is daarom volstrekt irrelevant voor wat ik bedoel.
Ook zijn er steeds meer tools beschikbaar om met minder CPU instructies complexe render-instructies naar de GPU te sturen.
Precies, nog minder te doen voor de CPU. Dit onderschrijft nogmaals mijn reactie.
Cities Skylines is een leuk voorproefje, die met gemak iedere CPU op z'n knieen trekt met een degelijke simulatie van verkeer
Dat is dan wel weer een reden om meer CPU power te hebben. Door heel veel physics berekeningen nodig te hebben wordt je CPU wel een bottleneck. Ik heb dit soort games zelf nog niet op mijn PC gehad. Maar ik kan me voorstellen dat de GPU hier veel beter in is/blijft dan de CPU juist vanwege de enorme parallele architectuur van GPU's.

[Reactie gewijzigd door RwinG op 15 mei 2017 21:20]

Ik vind het best grappig dat je een artikel aanhaalt waarin juist rekentaken worden genoemd die geschikt zijn voor multi threading welke ik associeer met gamen.
Rendering, File Decompression, Graphics Fluff, Physics.
Ja en dat zijn er dus maar een paar. Meer kan microsoft er zo ook niet verzinnen. Dus aan een paar cores heb je al snel genoeg. Dat is de boodschap. De grafische pijplijn blijft de bottleneck.
Evengoed, als je alle taken die niet grafisch zijn kan offloaden naar een andere core heb je die ene core voor jezelf.
Waar de discussie om gaat is of nog meer cores helpen met gamen. Dat houdt op bij een core of 4 tot 6 daarna heb je de rest van de cores "voor je zelf". Maar wat doe je daar dan mee als je aan het gamen bent... :)
je moet steeds wachten tot het ene frame klaar is voordat je het volgende kunt renderen.
Maar in de toekomst gaat de, ik zeg maar wat , "frame prediction unit" geholpen door de "neural net matrix" 99% van de tijd de volgende frames wel goed voorspellen.
Je zegt inderdaad maar wat. Je kunt niet een frame vooruit voorspellen want de user input zal toch eerst verwerkt moeten worden.
vooral de muis beweging om het camera standpunt te bepalen .. dat verandert snel als je door een game rent terwijl je links en rechts mikt..
Als AMD en Intel altijd maar 4 cores maken voor de mainstream markt, dan worden programma's of games ect, nooit multicore.
Als het merendeel bv van de gamers een 8core heeft, gaan developers zich eigen ook richten op 8 cores voor games. Waarom zouden ze dat nu doen als de meeste gewoon een 4 core hebben?
Buiten dat is de core snelheid er wel uit echt hoger gaat het niet worden dus meer cores.
Precies, software komt na hardware, niet andersom.
Dat is niet helemaal waar, John Carmack had vroeger een dikke vinger in de pap kwa graphics hardware en op OpenGL gebied, zonder hem hadden we nooit de graphics hardware zoals we die nu kennen. Hij was (en wellicht is) toendertijd altijd zwaar vooruit op wat de graphics kaarten aankonden, theoretisch had die altijd genoeg op de plank liggen, enkel het was wachten op de hardware. Nvidia, ATI (AMD) en 3DFX volgden in die tijd nauw op wat Carmack deed omdat dat bepalend was voor hun eigen succes.

Zijn meerdere artikelen en boeken geschreven over hoe geniaal Carmack indertijd was, en echt de koning van graphics was tot aan Doom 3, interessante food for mind.

https://www.wired.com/2003/05/doom-3/
"Carmack's games always push the envelope,"
Dan hadden we vandaag andere graphics hardware die misschien zelfs beter was geweest. We hebben het zo vaak gezien in de geschiendenis: meerdere wetenschappers die zich op hetzelfde vraagstuk storten en bijna gelijktijdig het antwoord vinden.

Ook vandaag kunnen gamedevs perfect games maken die op de huidige hardware amper gerenderd kunnen worden, maar ze doen dat gewoonweg niet omdat het toch niet zou verkopen.
Vandaag is wel heel anders dan 25 jaar geleden, Carmack en ID software zijn de pioneers op gebied van 3D games/engines in een tijd dat er enkel nog 2D games waren.

Totaal niet vergelijkbaar met huidige generatie gamedevs, waar velen nog profiteren van het werk wat Carmack heeft verricht (hoeveel games de engine van Quake wel niet gebruiken of afgeleide van zijn is enorm)

Kan deze zeker aanraden te kijken https://www.youtube.com/watch?v=cv-byZAauAs de geschiedenis van Carmack en ID software.

[Reactie gewijzigd door Turismo op 15 mei 2017 20:46]

Ik bedoelde eigenlijk in het algemeen. Het komt maar weinig voor dat software geschreven wordt voor nog-niet-bestaande hardware.
Kunnen we niet afspreken dat alle gamers een geweldig aantal cores gaan simuleren, en dat bij Steam laten "diagnosticeren". Met wat leuke statistieken zijn de developers dan snel om te praten.

Even AMD steviger in het zadel krijgen :)
Dat heet hyperthreading, en doen we al jaren. Game-fabrikanten lijken er slecht mee te foppen, zie ook de benchmarks (waarin een i5 vaak de i7 heel aardig bij kan houden, ondanks dat de laatste 2x zoveel cores rapporteert). Koop liever gewoon een mooie AMD, als ze meer marktaandeel hebben gaan producenten er vanzelf op letten. Oh, en je vertelt Intel ook dat ze ietsje beter hun best moeten doen ;)
coresnelheid is natuurlijk ook niet alles, oude series van AMD hadden hogere clock, meer cores, en toch moesten ze het compleet afleggen tegen de 4core intel varianten, neem bv de 8350 tegen de 4670k, hogere clock, meer cores, maar kwam qua ipc niet eens in de buurt.

En de markt zal niet makkelijk veranderen, mensen blijven oudere games spelen die optimalisatie voor 4 cores hebben, dat hun volgende systeem waarschijnlijk ook gewoon weer 4core zal zijn, er is geen meerwaarde voor een 6+ core. Natuurlijk, als jij naast je game nog bergen andere dingen gelijktijdig doet, maar dat zijn er niet zoveel.
Nee procede is ook belangrijk. Je vergelijkt een 32nm vs 22nm
Die 9350 zou op 22nm stuk zuiniger zijn.
op 14nm mogelijk dubbele 9350 ipv 8core Ryzen
Maar dan gen verder dan Excavator IPC.
Het begin van 8 cores in de mainstream markt is al gemaakt door de ps4 en de xbox one
Waar developers zich al jaren meer bezig houden
Waarvan 6 optioneel 7 Cores beschikbaar zijn voor devs.
En directer te managen. Bij PC is abstracter via schedular.
Ook veel werkgerelateerde workstationtaken hebben weinig baat bij al die threads. Je moet echt specifieke dingen willen wil dit echt nuttig zijn.
Ik heb vaak Unity, Visual Studio, Blender en 3D coat open. Soms nog eens een virtuele machine in de achtergrond als het iets is met een netwerk backend of ik iets moet testen in de hololens simulator. En terwijl niet alle acties zo ongelooflijk multithreaded zijn, maar je merkt het verschil wel hoor bij minder cores.

Tuurlijk is dit een specifieke case daar zijn die platformen ook net voor bedoelt net als de tientallen andere cases die er wel degelijk baat bij hebben. Mijn volgende workstation zal er zeker een worden met minstens 8 cores.

Weet je trouwens wat Microsoft aanraad aan de dev's voor Mixed Reality developers ? Een PC met 6+ cores.

[Reactie gewijzigd door simplicidad op 15 mei 2017 18:04]

Ik geef je ook geen ongelijk (jij valt in de doelgroep), ik heb ook een systeem met 72 threads... Maar daarom zie ik juist dat men steeds beter moet kijken wat aansluit bij wat je doet, ook als je "pro" bezig bent.

6 of 8 cores heb ik het ook niet over, dat mag idd standaard worden, maar boven de 10 is wel een aantal om ff te bedenken of het echt nuttig is. Veel open hebben staan naast elkaar hoeft niet meteen te betekenen dat er ook een hoge multicore cpu load is.

Dat intel de i9 aanprijst als "high end gaming" is natuurlijk complete waanzin.
Maarja ze zullen pro's altijd naar de xeon willen pushen.
Waarom zou de 1976X, met een hogere clock en evenveel cores/threads, een lagere TDP hebben dan de 1977X? Of er mist wat data of de geruchten kloppen niet.
In de tekst staat eigenlijk al dat het tabel niet klopt.

De 1976X moet een 12/24 zijn, zoals in de tekst staat:

"Behalve uit twee processors met zestien cores en twee met veertien cores gaat AMD's Threadripper-lijn uit drie processors met twaalf cores en nog een duo decacores bestaan."
Ik wou hetzelfde comment geven, want dat viel mij ook al op inderdaad.
Zoals het hierboven staat is de 1976X sneller dan de 1977X met minder Tdp.
Enige wat ik me kan bedenken is dat je de 1977X verder kunt overklokken.
het is niet voor niets een gerucht. de informatie kan er naast zitten. we weten het pas als het definitief aangekondigd word
Volgens mij hebben ze kloksnelheden van de 1976x en de 1977x met elkaar verwisseld
Nope, de 1976 is een 12core, maar er staat 14core in de tabel.
eindelijk een vervanging voor mijn inmiddels antieke 1366 moederbord dus. :Y)

intels i9 serie gaat niet betaalbaar worden als je de prijzen van de i7 nu al bekijkt. tenzij intel niet serieus in de prijzen gaan hakken gaat ze in het topsegment wel flink aandeel verliezen.
Ik verwachte 3.7ghz, dus 3.9-4.1ghz boostclocks, waarschijnlijk met oc naar 4(.1)ghz op alle kernen, is best goed. Moet ik weer tig uur nadenken of ik ga voor AMD en Intel.

Is dit een soort zen1.5 trouwens? Kloksnelheden zijn heel goed voor het aantal kernen tov de r7 en r5 reeks. Tdp is ook niet waardeloos. Ik had gerekend op 180-200W voor 16 kernen.

[Reactie gewijzigd door barbadruif op 15 mei 2017 13:01]

Als je dezelfde prestaties wil voor minder geld ga je voor AMD. Wil je meer betalen voor marketing ga je voor Intel.
Dat is natuurlijk veels te kort door de bocht. Mogelijk heb je gelijk met de nieuwe series, maar de afgelopen jaren wist AMD ook zijn prestaties op papier niet waar te maken in de echte wereld. Daarbij verschilt het natuurlijk enorm van toepassing tot toepassing.

Ik hoop van harte dat het AMD lukt, en het lijkt goed te gaan met de huidige processoren, maar wat je hier roept is OF heel oud en allang niet meer waar, OF veels te voorbarig.
Safe assumption: AMD Ryzen to Intel i-series: 10% less processing power for 40% lower price. Dat rechtvaardigt een AMD Ryzen. En een i, als je voor maximum power gaat.

De Bulldozer-serie was een fiasco, zoals de Pentium IV dat ook was. Intel kwam terug met de Core, AMD nu met de Ryzen.
Alleen kan Intel makkelijk de prijs wat verlagen terwijl AMD niet zomaar de performance omhoog kan gooien. De laatste AMD die ik had was veel sneller dan de Intel tegenhanger voor vergelijkbare prijs. Maar dat is alweer heel lang geleden, helaas.
Maar Intel verlaagt niet graag zijn prijzen. In het AMD64 tijdperk had je ook nog die belachelijk geprijsde Intel IV Extremes.
Waarom krijg je daar nu een +1 voor.. Het feit dat intel jarenlang marktleider is door CPU's uit te brengen voor een prijs waar AMD het niet voor kan doen onderschrijft precies mijn stelling dat Intel makkelijk AMD de markt uit kan prijzen.
Zijn dat dan de Celerons ?
Ik denk wel dat dit veel goedkoper wordt, maar als game streamer/youtuber die ruimte heeft voor één pc beneden is veel kernen met zo goed mogelijke game prestaties wel handig, alhoewel in (U)WQHD niet snel een cpu bottleneck is natuurlijk en in de toekomst wordt steeds meer gemultithread en ik wil wel een future proof pc op cpu gebied (gpu wel om de paar jaar vervangen).

Volgens mij heb ik mezelf overtuigd. Nu maar hopen op 3200mhz support icm 32gb RAM kits op x399 moederborden! In een paar uur van Intel naar AMD. Nog een belangrijke verandering op cpu gebied kan ik niet aan!
Intel kennende gaan de prijzen echt niet veel zakken. Als ze dat gaan doen kunnen ze nooit meer hoge prijzen vragen voor hun producten.
Als de beslissing zo lastig is en alles dus dicht bij elkaar ligt ga dan voor AMD. Als we dit met zijn allen doen hebben we over 5 jaar weer wat te kiezen.
Mooi gezegd.

Als AMD rond 3.8-4.0ghz kan blijven voor naples, kunnen ze de grotere intel xeons core per core ook verslaan, wat goed is voor AMD en dus uiteindelijk goed is voor de gewone consument. Denk dat ik pas bij zen3 ga upgraden. Hopelijk haalt zen dan 4.5ghz+!
Ik gok zomaar dat dit ook geen koopjes gaan worden ;)
Zijn dan ook geen normale consumenten cpu's
Koopjes, nee. Niet-waardeloze deals?! Waarschijnlijk wel!
De 44 pcie lines spreken mij meer aan dan de processor snelheid. Nu kan je eindelijk harddisks en videokaarten via een snelle(re) aansluiting laten werken.
De computer blijft immers zo traag als het traagste in gebruik zijnde component.
Zijn de gebruikelijke hoeveelheid PCI-E lines uberhaupt een bottleneck? Volgens mij is dat meer een theoretische bottleneck dan 1tje in praktijk
Ik ben nu een dual-E5 aan het shoppen omdat een enkele E5 te weinig PCI-e lanes heeft. Toegegeven, dat is een mid-range server, maar voor high-end workstations heb je vergelijkbare issues.
iets met een plx chip is geen oplossing?
Er zijn weinig servermoederborden met PLX-chip. Als het er was, graag. De Supermicro X10SRL is verder wel een erg fijn bord voor dit soort toepassingen: 1 processor, maar toch lekker veel uitbreidingssloten. Soms, in geval van GPU's, is een tweeprocessorbord toch onontkoombaar.
Als de prijzen redelijk zijn en de moederborden ook redelijk geprijst zijn ga ik zeker nadenken voor een AMD workstation.
Wat mij dan weer interessant lijkt zijn de SSD opties. In de tweede afbeelding zie ik een M.2 PCIe ssd direct op de CPU lanes, maar ook een U.2 PCIe ssd op de X390 (chipset gok ik). Deze is alleen met X4 aangesloten op de CPU en het M.2 slot heeft ook expliciet OS erbij staan.

Aangezien deze chips met name voor server gebruik gaan zijn kan ik hier dan een mooie setup zien waarbij de u.2 variant als massa storage gebruikt kan worden naast de 6 sata controllers? Als een buffer voor writecache oid?
AMD is echt lekker bezig sinds dit jaar. Eerst Ryzen, nu de reactie van Intel met de Core i9 en dan knalt AMD met dit er nog eens flink overheen. 2017 Moet wel het mooiste jaar sinds de afgelopen pakweg 11 jaar zijn in het land van ons liefhebbers. Na 11 jaar dominatie van Intel zijn het eindelijk weer eens spannende tijden en is er sprake van heuse concurrentie. Eerst Ryzen, nu de Ryzen enthusiast processors, later dit jaar nog Naples en dan ook nog Vega! Dit jaar kan echt niet meer stuk op tech gebied. Ik voel de tijd van de AMD K7 en K8 processors weer herleven!

[Reactie gewijzigd door daanb14 op 15 mei 2017 14:19]

precies!! ik ben euforisch :D
Eersy maar eens zien hoe ze zich houden tegen de Intel procs.

Wel mooi voor AMD dat het er nu een stuk beter voor hun uitziet dan de laatste jaren.

Er komt nog veel moois aan dit jaar!
ben zeer beneiuwd hoeveel gflops ze hier mee kunnen uitblazen

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*