Gerucht: Intel brengt Alder Lake-S-cpu's en Z690-chipset op 19 november uit

Volgens geruchten brengt Intel op 19 november zijn eerste Alder Lake-S-processors uit. Op diezelfde datum zouden ook Z690-moederborden beschikbaar komen. Intel zou eind oktober de prijzen en specificaties van de chips bekendmaken, tijdens zijn Innovation Event.

Anonieme bronnen melden aan Wccftech dat Intel op 19 november zijn eerste 'K'- en 'non-K'-processors uitbrengt, en in de weken daarop met meer mainstream Alder Lake-modellen zou komen. Eerder publiceerde leaker momomo_us al de mogelijke line-up van Alder Lake-processors. Die lijst is afkomstig van verschillende webwinkels, waaronder enkele Nederlandse. In die line-up werden ook voornamelijk K-modellen vermeld, naast KF-cpu's zonder geïntegreerde gpu en enkele modellen zonder achtervoegsel.

Op 19 november komen volgens bronnen ook de eerste Z690-moederborden uit. De andere 600-serie chipsets zouden later volgen. Deze moederborden krijgen onder andere een LGA1700-socket. Het Z690-platform biedt daarnaast officiële ondersteuning voor DDR5-4800-geheugen. De lager gepositioneerde 600-serie chipsets, zoals H670, B650 en H610, behouden volgens Wccftech DDR4-3200-ondersteuning.

Alder Lake-processors komen aanvankelijk beschikbaar voor desktops, hoewel er later ook laptopvarianten worden uitgebracht. Dat kondigde Intel recentelijk al aan tijdens zijn Architecture Day. De processors beschikken onder andere over snellere performance-cores met hyperthreading en enkele meer energiezuinige cores zonder hyperthreading. De processors worden gemaakt op het Intel 7-procedé, dat eerder bekendstond als Intel 10nm Enhanced SuperFin.

Cpu* Productcode Cores Kloksnelheid L3-cache
Base Boost
Intel Core i9-12900K BX8071512900K 8 P + 8 E 3,2GHz 5,3GHz 30MB
Intel Core i9-12900KF BX8071512900KF 8 P + 8 E 3,2GHz 5,3GHz 30MB
Intel Core i7-12700K BX8071512700K 8 P + 4 E 3,6GHz 5,0GHz 25MB
Intel Core i7-12700KF BX8071512700KF 8 P + 4 E 3,6GHz 5,0GHz 25MB
Intel Core i5-12600K BX8071512600K 6 P + 4 E 3,7GHz 4,9GHz 20MB
Intel Core i5-12600KF BX8071512600KF 6 P + 4 E 3,7GHz 4,9GHz 20MB

*Gebaseerd op onbevestigde informatie van webwinkels

Door Daan van Monsjou

Nieuwsredacteur

04-09-2021 • 15:11

124

Reacties (124)

124
119
52
4
0
38
Wijzig sortering
Ik ben benieuwd hoe ddr5 het gaat doen op deze eerste serie chips met ddr5 en of de snelheid belangrijker wordt als latency.

[Reactie gewijzigd door computerjunky op 22 juli 2024 21:22]

En of ECC geheugen voor de consument eindelijk gewoon standaard unlocked is. En andere zaken die ze locken voor de gewone consument. Verder is intel in profi wereld nog steeds de nummer 1 keuze. Vooral qua software ondersteuning.
ECC is bij DDR5 standaard onderdeel geworden van de specificatie, het is niet optioneel meer.
Is dat echt iets waar je iets aan hebt, of is dat meer een interne strategie zodat ze op het randje van betrouwbaarheid kunnen balanceren?

In het bijzonder vraag ik me af of de CPU melding krijgt als er fouten gedetecteerd zijn, al dan niet herstelbaar.
Het probleem is niet zozeer dat de opeenvolgende generaties RAM-geheugen steeds onbetrouwbaarder zijn geworden, maar dat een gemiddelde computer inmiddels veel meer RAM bevat dan toen DDR-geheugen werd geïntroduceerd. In 2000 was 128 MB geheugen vrij normaal voor een computer en ontwikkelde de hoeveelheid RAM zich nog razendsnel. Inmiddels is het groeitempo behoorlijk afgezwakt, maar ergens tijdens de lifecycle van DDR5 zal 128 GB geen bijzonderheid meer zijn. Dat is het duizendvoudige van wat bij DDR gebruikelijk was. Als de minieme kans dat een bit in het geheugen spontaan omvalt (hoofdzakelijk als gevolg van de alom aanwezige kosmische achtergrondstraling) in al die jaren gelijk is gebleven, heb je bij 128 GB een duizendvoudige kans dat dat gebeurt. Dat maakt dat ECC-functionaliteit met toenemende hoeveelheden RAM steeds nuttiger wordt, zelfs als de kans daarop nog steeds zeer klein is.
Ik begrijp dat die standaard ECC alleen op de DIMM gedaan wordt.
Dus dat de DIMM ervoor zorgt dat wat er op de DIMM staat niet corrumpeert.
Maar dat voorkomt nog niet dat tussen DIMM en CPU bitjes omvallen bij lezen/schrijven.
De ECC bescherming daartegen is misschien niet standaard.
ECC heb ik nooit toegevoegde waarde van gezien bij consumenten.
Het is eerder andersom, alle computers hadden het moeten hebben, zou een hoop crashes schelen. :)
Crashes heb ik nog nooit meegemaakt bij consumenten, dan was het altijd gevolg van een virus of whatever, of een kapotte HDD met teveel bad sectors.

Zelden maak ik mee dat werkgeheugen beschadigd is, dit wordt vrijwel altijd veroorzaakt door de systeembouwer door even niet op te letten bij installeren / beetpakken van RAM en dus ESD te veroorzaken, dit hoeft niet direct boven water te komen een beschadiging kan na een jaar nog duidelijk worden.

Je hebt ESD polsbandjes maar die zijn in principe niet nodig als je goed voorbereid te werk gaat zoals geen wollen trui dragen en hoe je spullen beetpakt(en natuurlijk vlak ervoor jezelf even ontladen aan de aarding), zolang je niet in een geil standje aan de pc hardware zit gaat het in algemeen wel goed.

Nu heb je veelal ook koelribben op ram als je het daar beet pakt gaat het in algemeen ook goed.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 21:22]

Hoeft niet noodzakelijk een crash te zijn : https://nl.wikipedia.org/wiki/Maria_Vindevoghel
" In Schaerbeek in 2003 kreeg MARIA in eerste instantie 4096 extra stemmen vanwege een stemcomputerfout die veroorzaakt was door kosmische straling.[18][19]"
[19] The Universe is Hostile to Computers. Veritasium (31 augustus 2021). => https://www.youtube.com/watch?v=AaZ_RSt0KP8
Dus ECC : voor de kost van 1 extra chipe @10€/GiB en 3% performantie kost? Voor mij GRAAG!
(zeker nu het aardmagnetisme afneemt gecombineerd met de 25ste zonnecyclus interessant zou kunnen worden)
Daarom ECC moet gewoon standaard. Silent errors, crashes en je hebt gewoon garantie dat wat er in het geheugen gaat er ook 1 op 1 uit komt. Gewoon een error check dat standaard hoort te zijn. Snap niet dat mensen hier zo op tegen in gaan.
Allerlei data wordt continu gecontroleerd zoals TCP/IP pakketjes en noem het maar op dat er geen fout bitje in zit als je een programma download. Maar als met praat over ECC geheugen is het ineens "RAAR".

ECC standaar zou gewoon de norm moeten zijn. Heb gewoon de snelste ECC geheugen genomen. Kost maar klein beetje meer, en is iets trager als "gaming" geheugen.
Linus Torvalds klaagt er op realworldtech.com al 20 jaar over :
https://www.realworldtech...d=198497&curpostid=198647
smaakmakertje :Y) :)
"And the memory manufacturers claim it's because of economics and lower power. And they are lying bastards - let me once again point to row-hammer about how those problems have existed for several generations already, but these f*ckers happily sold broken hardware to consumers and claimed it was an "attack", when it always was "we're cutting corners".
Ik volg dit al 2-3 decades, ik bespaar je de inventaris van verhalen
en met 'ECC' bedoel ik eigenlijk SECDED, single error correction dual error detection, sommige intel chipsets doen maar de helft.

[Reactie gewijzigd door as400 op 22 juli 2024 21:22]

10 euro per GB betekend voor mij 320 euro extra voor mijn geheugen.
Bovenop de 150€ die het gekost heeft. 3x zo duur voor ECC lijkt mij niet te kloppen
Er is geen discussie over de noodzaak van ECC eigenlijk: alle server apparatuur heeft ECC geheugen, het risico is reëel. Helaas is het ietsje duurder, dus dat scheelt weer marge en de consument snapt en weet hier niets van.
Server omgevingen hebben wij het ook niet over.
Dat is niet het punt, het punt is dat het risico reëel is en dat werkplekken ook dergelijk geheugen zou moeten hebben.
Een werkpost die data in RAM bewerkt en data met een bit-fout terugschrijft naar de server maakt de parity bescherming op de server ongedaan. Beroepshalve meegemaakt, management was not amused.
Je kunt fundamenteel niet weten of crashes door bitflips in het geheugen komen juist omdat je geen ECC geheugen hebt die jou er op kan attenderen.

Het hoeft ook niet om een permanente crash te gaan, maar om een BSOD die tot een uur werk verlies kan leiden, enzovoort.
Je hebt ook silent error. Dus dat er door een bitflip een getal verandert waardoor al je berekeningen niet kloppen en door accumulatie van getallen dus berekeningen die op berekeningen vertrouwen van voorgaande reeksen. Dan gaat alles dus in de fout.... ECC Moet gewoon standaard zijn punt uit. Het is onzin dat men gaat voor geheugen zonder ECC.
Jij hebt nog nooit blauwe schermen (of andere errors onder andere OS) hoeven troubleshooten waar blijkt dat het het geheugen is? Dan ben je een van de weinigen en ben ik jaloers op je.

Je hebt het over consumenten...die hebben ook nassen, soms ook diy...dat is met truenas echt eenvoudig geworden en dan is je data zo belangrijk dat ecc practisch een vereiste is. Het risico is enorm klein maar als het gebeurt en je hele array flikkert om, dan weet je weer waarom je ecc had.

Ik ben het met je eens dat de kans heel klein is, maar als je die kans *standaard* kan weg nemen door alle modules ecc ondersteuning te geven, wat is dan precies het argument om het niet te doen?

Overigens blijf ik persoonlijk het argument "ik heb dat nooit mee gemaakt" zo apart, dan denk je -vind ik- niet echt bigger picture.
Het probleem is voornamelijk silent errors. Je kunt dus achteraf nooit achterhalen of het, het geheugen is geweest. Wat je wel kan doen is door gewoon ECC geheugen te kopen en dit uit te sluiten.
Het grote gros van de consumenten heeft geen NAS, dat zijn alweer de "power users".

BSOD,s wat in verband staan met Ram problemen zijn in algemeen redelijk eenvoudig te vinden, en die kwam ik alleen tegen bij zelfbouw pc,s waarbij de handige buur jonge de pc in elkaar gezet heeft.

De silent error,s waar immutable over heeft kan een issue zijn, een applicatie gedraagt zich vreemd bijvoorbeeld, als het crashed of BSOD is het vaak eenvoudig troubleshooten.

Wat ik dus al zij als je BSOD krijgt en blijkt een ram issue dan is dat vrijwel altijd het gevolg van ESD geweest, overgens ik werk in een grote organisatie en ja BSOD,s komen maar heel zeldzaam voor en ook thuis heb ik het nog nooit meegemaakt(overgens let ik wel op als ik een pc bouw of het compatible is en check de lijst bij de fabrikant of het erop staat ipv zomaar wat in drukken).

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 21:22]

Je hebt op mijn belangrijkste vraag geen antwoord gegeven (ik ga het voor het gemak even eens zijn met de rest van je punten); als het standaard implementeren van ECC ondersteuning zelfs de kleinste kans weg haalt, welk argument is er dan om dat niet te doen?
Ik ben erg benieuwd naar hoe alles gaat uitpakken de komende maanden.
Zelf was ik bijna op AMD ingestapt voor mijn nieuwe PC, tot ik hoorde dat de nieuwe Intel's eraan zaten te komen met een echte architectuur stap vooruit.
Mijn huidige PC komt nog uit 2014 toen de X99 chipset uit kwam met socket 2011-v3 5e generaties CPU's met voor het eerst DDR4 en PCIe 3.0.

Ik zou het mooi vinden om mijn nieuwe PC aan te kunnen schaffen met het nieuwe big.Little concept, DDR5 en PCIe 5.0. Hopelijk wederom zo'n grote stap waarmee ik flink wat jaren vooruit kan met alle nieuwe technieken.

Qua beschikbaarheid gaat het de laatste tijd wel goed in CPU land, ik verwacht dat dit geen probleem zal zijn als met de GPU's.
Ik zou het mooi vinden om mijn nieuwe PC aan te kunnen schaffen met het nieuwe big.Little concept, DDR5 en PCIe 5.0. Hopelijk wederom zo'n grote stap waarmee ik flink wat jaren vooruit kan met alle nieuwe technieken.
Hoe vaak is het een goed idee om bij een nieuwe techniek als eerste in te stappen? Zoals je zegt dit is niet gewoon de net iets snellere versie van de vorige generatie, dit zou significant anders werken binnen x86 land... Begrijp me niet verkeerd, ik was ook behoorlijk geïnteresseerd en zat ook te overwegen om een aanschaf nog verder uit te stellen. Totdat iemand (met voldoende kennis van zaken) al aangaf dat het wel eens niet allemaal rozengeur en maneschijn zal zijn met de nieuwe Intel CPUs, zeker met oudere hardware. Voordat ik tevreden zou zijn dat het allemaal wel netjes werkt zouden er nog meer maanden overheen zijn gegaan voordat ik een nieuwe game PC aanschaf, dan weer geruchten van een nieuwe GPU, weer uitstellen, etc. Zo blijf je natuurlijk aan de gang.

Ook hier iemand met een PC uit 2014, welke eigenlijk wel eens toe is aan vervanging. Als het echt moet kan je er zeker nog wel mee verder, maar het moet niet echt...
Ik heb eigenlijk altijd Intel + NVIDIA gehad als hoofd PC, maar altijd AMD als 2e extra PC er naast gehad.
In de gehele geschiedenis van mijn PC's zijn het altijd de AMD's geweest die problemen gaven met nieuwe releases en hardware compatibiliteit (ook de grafische kaarten).

Mede daardoor geloof ik wel dat als ik nu alles nieuw koop dat het goed gaat werken en durf ik die sprong wel te wagen. Dus big.little cpu, DDR5, RTX3080 of 3090 en een m.2 SSD die 7GB/s doet.

Los van het big.little concept wat nu nieuw is, heb ik precies dezelfde sprong genomen bij mijn PC uit 2014, welke toen ook uit alleen maar nieuwe architectuur bestond (X99, nieuwe socket 2011-v3, DDR4, PCIe 3)

[Reactie gewijzigd door drocona op 22 juli 2024 21:22]

Altijd.... Je spreekt van 2014. Kom misschien nog eens terug als je altijd mee bent met je tijd.
Komt een beetje betweterig en als troll over als je het zo schrijft, ga er even vanuit dat dat niet de bedoeling was.
Ja altijd, ik ga al langer mee dan 7 jaar, al mijn primaire systemen zijn altijd Intel + NVIDIA geweest en heb altijd het op dat moment beste en nieuwste beschikbaar gekocht. Met uitzondering van een Voodoo GPU ergens in 1990.
Ik heb sinds ryzen altijd alle systemen met amd gehad en nooit problemen. ( Daarvoor Intel tot aan 7700) Kwestie van perceptie zeker he om de woordenschat altijd in de mond te nemen alsof alles altijd problemen geeft. Als het altijd is ligt het misschien eerder altijd aan de kennis van de persoon of de gedachte van altijd...
In een andere post leg ik uit dat ik ook als 2e systemen AMD CPU + ATi/AMD GPU's er bij heb gehad. Die systemen heb ik op 1 systeem na, allemaal problemen met ondersteuning, drivers en bios gehad. Geen van dat soort problemen heb ik met Intel en NVIDIA ondervonden.
Een grote groep van mijn gaming maten zijn recentelijk ingestapt op de Ryzen 5000 reeks, minstens de helft daarvan heeft crashende systemen gehad, niet ondersteunde geheugen timings en andere problematiek waardoor ze ruim een maand of twee later pas hun systeem correct konden gebruiken. Daar zit ik gewoon niet op te wachten, ondanks dat ik nu heel dicht bij de streep was om een AMD als main te gaan draaien.

Ik ben geen fan van of Intel of AMD, ik koop wat voor mij de beste specificaties heeften de beste performance levert op het moment in tijd, dat is puur feitelijk en niet gebaseerd op meningen. Gezien de GPU tekorten heb ik mijn hele nieuwe build uitgesteld, als de GPU tekorten er niet waren had ik nu om AMD gedraaid (en waarschijnlijk ook problemen gehad net als mijn maten).

Wederom doe je een aanname, alsof ik niets weet, ik (en de hele gaming groep van 80+ mensen) heb genoeg ervaring met PC's en beschikbare merken om een weloverwogen beslissing te nemen. Dat jij andere voor en tegens voor jouw situatie gebruikt en dan voor AMD gaat is prima en daar zal ik je ook niet in proberen over te halen.

[Reactie gewijzigd door drocona op 22 juli 2024 21:22]

Het is waarschijnlijk Lindatje, de grootste AMD fanboy en fora troll van de 19e en 20e eeuw.
Wagen?!

Ga wederom voor INTEL+NVIDIA dan kun je op beide oren slapen :-)
Die ervaring deel ik ook. En met AMD heb ik nu nog steeds veel problemen maan dan qua drivers vooral. Is het niet de chipset drivers die problemen veroorzaken dan wel weer de VGA drivers die problemen veroorzaken. Soms zit mijn zoon weken zonder een PC vanwege de AMD drivers. Het is soms een grote bagger zooi bij AMD qua drivers.
Ik kan je adviseren om nog steeds voor AMD te gaan. Meestal zijn de moederborden iets goedoper en kan je later je CPU upgraden wat meestal bij Intel niet mogelijk is.
Maarja, dat is nu de keuze die voor mij meer richting Intel gaat, zeker ook gezien de leeftijd van mijn huidige systeem welke nog steeds ver boven gemiddeld presteert.

Of ik kies Intel waarbij het wellicht zoals jij zegt niet upgradebaar is met de CPU, maar ik heb wel DDR5, PCIe 5 en een nieuwe CPU architectuur welke mij zeer aanspreekt.
Of ik kies AMD, waarbij ik een (waarschijnlijk) iets minder snelle CPU krijg op bekend platform welke ik mogelijk wel kan upgraden in de toekomst. Alleen op DDR4, welke binnenkort dus oud is en PCIe 4.0 welke met huidige SSD's ook al aan de limiet zit.

Gezien ik mijn CPU nog nooit in mijn leven geüpgraded heb gezien ik altijd bleeding edge top modellen koop, valt het enige voordeel van AMD t.o.v. Intel daar weg. Daarnaast, zit AMD inmiddels ook al niet aan het eind van de AM4 socket?
Hoe vaak heb je die PC uit 2014 daadwerkelijk geupgrade en met wat? Ik moest heel even checken, maar er is letterlijk niets geupgrade bij mij. Alleen de randapparatuur zoals monitoren, toetsenborden, muis, headset. Over de afgelopen 7 jaar wel meer storage nodig gehad, maar heb toen gewoon de NAS geupgrade...
Ik ben sinds 2014 van 16GB naar 32GB geheugen gegaan en ik heb er een 512GB m.2 NVMe aan toegevoegd.

Spul uit 2014:
I7-5820k
16GB DDR4
500GB m.2
GTX 980Ti (watergekoeld van Gigabyte)
ASRock X99m moederbord

De PC is ook een keer van kast gewisseld met dezelfde hardware.
Qua monitoren inderdaad veel veranderd, zit nu op een dubbele verticale 3440x1440 ultrawide setup waarvan er eentje 144Hz doet voor snelle games. Keyboard en muis zijn ook vervangen in die tijd.

[Reactie gewijzigd door drocona op 22 juli 2024 21:22]

Er is geen nieuwe volledige Intel CPU serie. Het is een grote Paper launch tegen het einde VH jaar met het en der een stukje beschikbaar. Er is geen high end CPU tenzij je die 8+8litle high end noemt, upgrades zijn ook totaal niet geweten, we spreken hier over Intel Remember.... Het is enkel de high end chipset. Dus je start al met een mobo van 200-250eur. al de andere chipsets ergens volgend jaar zijn gewoon ddr4 en waarschijnlijk pcie4. Er is geen ddr5 tenzij wat high end dus best wederom even de prijs niet in rekening brengen. Er is geen pcie-5 materiaal, er is buiten wat specifieke disk controllers geen nood aan pcie-5 die pcie4 storage praat rechtstreeks met cpu als je weet wat aankoopt De huidige beste gpu gebruiken zelfs nog niet eens de volle pcie-4 spec.

Dus als jij graag duurkoop doet als early adapter omdat je zogezegd dan weer wat verder kan doe gerust. Er zijn er altijd die graag geld wegsmijten...

Als je denk dat je duurkoop van x99 en 2011 CPU en al de rest je geholpen hebben? Kijk dan eens naar wat benchmarks en zie hoelang je al achterloopt tov elk 3j een midrange pc te kopen en deze op tijd nog 2de hands te verzetten.

[Reactie gewijzigd door d3x op 22 juli 2024 21:22]

Ik begrijp niets van wat je probeert te bereiken met je bericht los van vol tegen mij in gaan met allerlei statements zonder argumenten?
  • Het is een volledig nieuw platform, hoe is dat niet zo volgens jou?
  • Wat noem je dan wel high end? High-end is de groep best presterende (in dit geval) CPU's, gezien wat benchmarks gaan al deze CPU's makkelijk in de high-end range komen. Als je de snelste CPU uitbrengt op de markt, hoe is dat niet high-end?
  • Hoe bedoel je er is geen DDR5, dat komt gewoon beschikbaar en wordt al geproduceerd, heb jij of ik wat nieuws gemist?
  • Er is geen PCIe 5? zelfde als DDR5, PCIe 5 bestaat gewoon en gaat er komen. We raken al de limieten van PCIe 4.0 met storage devices, PCIe 5 is heel erg welkom. Dat je het zelf niet nodig hebt betekent niet dat de rest van de wereld het ook niet nodig heeft.
  • Wat betreft GPU's, ja je hebt gelijk dat die het nog niet gebruiken, in de toekomst ongetwijfeld wel, daar wil ik graag op voorbereid zijn.
  • Ik smijt helemaal niks qua geld weg, ik krijg er ontzettend veel voor terug qua maximale performance en zit voor minstens 5 jaar weer gebakken. Mijn huidige CPU komt nog niet eens in de buurt van een bottleneck tijdens gamen en alle andere programma's die ik draai, als ie maximaal 60% draait is het veel.
  • Mijn huidige X99 systeem heeft ~2000 euro gekost, succes met een midrange PC met dezelfde performance bijkopen over die tijd voor dat geld, het rekenwerk heb ik al lang gedaan.
Ik vind het prima dat jij het zelf niet wil en met een mid-range PC genoegen neemt die je continu een upgrade geeft, maar je hoeft tegenover mij die keuze niet goed te praten en alles wat niet met jouw mening overeenkomt als slecht te bestempelen of te doen alsof dingen niet bestaan en nooit gaan bestaan. Ik hou van vooruitgang en toekomst en daarom kies ik inderdaad voor early adoption in alles qua techniek, wat over het algemeen betekent dat ik de beste performance in huis heb en er jaren overheen gaan voordat die performance überhaupt haalbaar is voor mid-range of "mainstream" systemen.
Als je huidige CPU geen bottleneck is dan wil het ook zeggen dat je gewoon geen weet hebt van het verschil.

Om nu te spreken dat je persé ddr5 en pcie-5 nodig hebt terwijl je al 3-4j gewoon vierkant achterloopt.

En high end, nee die aangekondigde alderlake is geen high end. Het is gewoon een midrange CPU op een consumenten platform. Je x99 was een high-end platform. Een noemenswaardige vervanger heeft Intel momenteel niet.
Benchmarks ah je hebt natuurlijk die fake hype internet al gezien en je daaar natuurlijk al de basis op gezet en realiteit want het is van firma Intel en het zal allemaal wel zo zijn.

Ddr4 was al Future proof van de moment dat jij al achterliep met je vorige systeem :( kwestie van 3-4j achter de feiten aan te kopen en nu komen blaten dat er iets is (Paper launch) wat bij eerste launch al zeker Future proof is.

Jij komt eigenlijk zeggen dat duizenden kopers van ddr4 en pcie4 een miskoop gedaan hebben want nu is er iets "nieuws"

Haha juist Intel had geen pcie4 sinds begin dit jaar. Mja dan kon je natuurlijk niks Future proof kopen... O-)
Ik heb ook gewacht op dingen en nu zit ik met m'n PC uit eind 2013 in een wereldcrisis met chiptekorten.

Mijn 4790K uit 2013 gaat nog steeds prima mee. Hierop baseer ik in tegenstelling tot jou, juist dat als ik een high-end CPU koop, zijnde dat intel of amd, ik wel weer zeker de komende 5 jaar goed zal zitten.

Zelfs als er nu een nieuwe 'sprong' in architectuur of technologie komt, ga je dan waarschijnlijk weer willen afwachten tot de prijzen dalen of tot de kinderziektes eruit zijn. Tegen de tijd dat je het wil aanschaffen duurt het alweer nog maar 3 maanden tot er weer wat nieuws uit komt.
Dit allemaal terwijl het meestal wel zo'n 5 jaar duurt voordat de software ook maar begint het maximale uit je CPU te trekken.

Ik heb spijt dat ik mijn ryzen 3000 build niet door heb gezet toen ik nog voor 500 euro klaar kon zijn met een mooie upgrade kit. Nu is dat 900 als niet meer...

En qua DDR en PCIe... Ik zit nog op DDR3 en PCIe 3.0 en die limieten van PCIe 3.0 beginnen nu pas net aangetikt te worden door de highest-end spullen. DDR3 heeft geloof ik nog geen tekorten gezien?

Ik ga upgraden zodra de prijzen er naar staan.

[Reactie gewijzigd door NoobishPro op 22 juli 2024 21:22]

AMD5 soc komt bijna uit. Volgende mij begin of eind volgend jaar zo uit mijn hoofd. Toch, het is jouw keuze. Ik had nog even gewacht als ik jou was.

Edit: geruchten zeggen eerste of tweede kwartaal 2022.

[Reactie gewijzigd door Remzi1993 op 22 juli 2024 21:22]

Grappig toen ik ging kijken was een vergelijkbaar moederbord bjj amd fors duurder. Het is dan ook maar bet wat je eisen zijn en in welk segment je koopt. En voor amd kiezen qua upgrade path is echt een dooddoener nu. Ryzen 5000 is de laatste am4 socker chip en amd gaat naar een socket zoals intel die al 10 jaar heeft voor de desktop met pins op het moederbord.
Veel te upgraden valt er dus niet je kan dus hoogstens van een 6/8 core naar 12/16 cores maar daar heb je met gamen vrij weinig aan en is nieuwe architectuur over het algemeen een betere keuze.

Het is echt een slecht punt om nu een pc re bouwen met upgrades in gedachten. Je ben beter af nu gewoon een budget build te doen met een goedkoop 11400 cputje ofzo en goedkope ddr4 en dan over 2 of 3 jaar platform te upgraden. Dan heb je waarschijnlijk in de budget range al een flinke upgrade te pakken.
Er is totaal geen reden om nu voor amd re gaan over intel tenzij je 12 of 16 cores nodig heb (geen gamer dus) beide hebben een slechte upgrade path door de opkomst van ddr5
Ik kan je adviseren om nog steeds voor AMD te gaan. Meestal zijn de moederborden iets goedoper en kan je later je CPU upgraden wat meestal bij Intel niet mogelijk is.
Dat laatste is geen argument meer. Zowel bij AMD als Intel is hetgeen je nu koopt het laatste product voor het huidige stocket. (Dan gaat het dus over de 5000 reeks vs de 11000 reeks.) AMD gaat straks, net als Intel, de pinnetjes op het socket plaatsen. Intel komt met een fysiek grotere socket.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 21:22]

CPU en bord doe ik altijd gelijk. Laatste keer dat ik een cpu upgrade heb gedaan van een niet server systeem kan ik me niet meer heugen. Komt ook omdat ik vrijwel altijd snelste amd of Intel model heb met een bijbehorend moederbord.

Ben echt benieuwd of alder lake het allemaal waarmaakt maar als de benchmarked maar enig zins kloppen dan wordt het een super interessante propositie om snel in te stappen. Ben vooral benieuwd naar de single thread performance in node en c# build processen. Als die goed zijn dan wordt het binnen een maand na launch upgraden.
PCIe 3.0 was er al eerder, deze pc heeft nog DDR3 en ook al pci-e 3.0, dit is nog een oude Hasswell.
7 nm het wordt of is dunner dan een mensenhaar.
Denk zelf dat de betrouwbaarheid evenredig afneemt.
Er moet immers een ondergrens zijn om het procedé niet verder te kunnen verkleinen zonder dat het de werking verstoort.
Zit je te trollen? Er zijn al chips van 7nm. Staat het internet vol klachten? nee.
Was mijn vraag ook niet, de vraag was, hoever kunnen ze doorgaan zonder de betrouwbaarheid negatief te beïnvloeden of zou 7nm de ondergrens zijn qua betrouwbaarheid?
IBM heeft 2 nm chips gemaakt https://www.anandtech.com...bm-creates-first-2nm-chip
We kunnen nog heel eventjes verder verkleinen dus...
Helaas zijn chips van intel of amd niet te porten naar die ibm fabs. Bijna 4x de transistor density zou echt een absurde boost zijn of simpelweg een enorme kostenbesparing.

Daarnaast is frequentie ook nog wel een dingetje. Als die dingen maar 2 a 3 ghz clocken word het vrij kansloos.

[Reactie gewijzigd door computerjunky op 22 juli 2024 21:22]

IBM heeft allang geen eigen fabs meer voor massa productie alleen maar research fabs voor zeer klein schallige test productie. Ze laten hun spullen maken bij global foundries of Samsung en straks waarschijnlijk Intel.

Want sinds dit jaar werkt IBM samen met Intel voor de volgende generatie cpu ontwerpen .

En ook amd en Intel zullen die stijging van de dichtheid ongeveer halen is gewoon een effect van de kleinere process technologie.

https://newsroom.ibm.com/...-Research-and-Development

[Reactie gewijzigd door CrazyBernie op 22 juli 2024 21:22]

5nm is er al bij tsmc en daarna gaan we naar 3nm daarna staat 2nm en dan 1.8 nm al op het programma. Wat zeker is dat iedere verkleining het moeilijker maakt om een werkende chip te produceren. Maar tot nu toe lukt het iedere keer om de yield = aantal chips dat na afloop van het productie process ook daadwerkelijk 100% werkend uit de fabriek komt op een hoog genoeg niveau te krijgen om het economisch haalbaar te worden.

In onderzoeks instellingen zijn trouwens 2nm en 1.8nm al werkend. Het gaat er vooral om hoe je daar massa productie van maakt .
Mensenhaar is 17000 nm (!) minimaal.

Ik sta overigens ook versteld dat zo'n chip kan werken met onderdelen zo klein. Voor mij is het magie.
Naar verhouding is de uitspraak vergelijkbaar met "een millimeter, dat is nog kleiner dan een blauwe vinvis". :+
Er komen wel wat quantum effecten bij kijken, in principe is dat een soort magie :P
Dat is het punt waar ik zo nieuwsgierig ben. Welke quantum effecten komen er dan? En wanneer?
Intel blijf heel goed in opkloppen, hypen, marketing en media bespelen, maar processoren maken, dat was de afgelopen 10-15 jaar niet zo geweldig. We zullen zien wat ze nu daadwerkelijk op de markt brengen. Voorlopig neem ik Intels persberichten met een flinke scheepslading zout
Onzin. Alsof amd niet aan loze marketing termen doet. Dat is iets van alle bedrijven en echt niet alleen van intel.

Moest AMD niet betalen in 2019 voor een marketing leugen?

En intel cpu's afgelopen 10-15 jaar niet zo geweldig... Op de afgelopen 10 maanden na heeft intel altijd best in class cpu's gehad. Ryzen 5000 is de eerste generatie die gaming prestaties heeft om over naar huis te schrijven. Daarvoor hadden ze wel al de betere workstation chips. En nu heeft intel weer de beste entry leven chips.

Zou eerder mijn eigen berichten met een schep zout nemen.l als ik jou was. En zet meteen even je rode brilletje af als je dan toch aan tafel zit te eten :)

Gezien hun productie belemmeringen hebben ze gewoon goede producten geleverd met uitzondering van 11th gen wat mij betreft.
Waarom altijd weer die vergelijking met AMD?

Daar gaat de reactie helemaal niet over.

Als je naar het spul kijkt van Intel sinds Skylake, dan is het vooral een kwestie van meer MHz en weinig van coreverbeteringen.

Single core is het 40% in 6 jaar tijd, waarvan ook nog eens 24% uit meer MHz komt. Dan blijft er 16% verbetering over in 6 jaar:

White Feather in 'nieuws: Gerucht: Intel brengt Alder Lake-S-cpu's en Z690-ch...

Nou, wauw wat een prestatieverbetering.
Apple’s ARM cores zijn 600% sneller geworden in de afgelopen 7 jaar, gemiddeld net iets meer dan 30% per generatie. Andere ARM cores hebben vergelijkbare gains, met veel lager stroomverbruik dan Intel
#1 je zit nu een x86 CPU te vergelijken met een ARM CPU.
#2 zit je een smartphone CPU te vergelijken met een PC CPU, welke pas recent iets anders is gaan draaien dan iOS/iPadOS.
#3 Een relatief langzame chip kan inderdaad in relatief weinig jaren heel veel winst behalen.

De M1 doet momenteel nog altijd onder voor een 5950X, voornamelijk in de multicore scores. Sure, het is een stuk energie efficienter. Maar het grootste probleem is dat een M1 slecht MacOS draait met een relatief beperkte selectie aan software. Als je oudere Mac software gaat meenemen, dan heeft Rosetta weldegelijk een performance impact. Terwijl je op een x86 verschillende OSen kan draaien (zelfs MacOS) met een enorme selectie software.

Met die 30% performance increase per jaar zitten ze nog steeds niet op het niveau van het top model van Intel/AMD (en dan hebben we het niet eens over Threadripper/Epyc/Xeon). Dus dienen ze eerst dat in te halen, hoelang verwacht je dat ze het vervolgens volhouden die 30% performance verbetering per jaar?
Daarom blijf ik nog lekker een tijdje op de 9900k zitten :*) werkt nog dikke prima icm een 3090
Alleen heel veel software heeft ook vandaag de dag nog steeds veel voordeel van single core prestaties, multi-core programmeren blijft lastig.
En als amd sinds 2011 gewoon ieder jaar prestatie upgrades ipv downgrades geleverd had hadden we ook een heel andere markt gehad. Het zijn bedrijven geen liefdadigheidsinstellingen. Daarom is amd dan ook relet in het hele verhaal.
Feiten zijn feiten ik snap dat die niet in iedereen zijn straatje passen in 2021 omdat mensen nogal gelimiteerd zijn tot bepaalde vakjes maar AMD en Intel beïnvloeden elkaars buisness model zo is het nou eenmaal...

Nogmaals ze zijn er niet voor jou (tenzij je aandeelhouder ben) die hele we geven om gamers en gebruikers is voor de bühne. Ze bestaan voor geld het is en blijft een bedrijf. Als de concurrentie niets doet dan en je oude product is nog winstgevend en verkoopt uit dan gaan ze echt niet om jou tevreden te stellen snellere hardware lanceren wat een reactie kan zijn op wat de competitie doet.

Bij GPU's heeft dat afgelopen jaren anders gelegen omdat er daar een vraag naar sneller en sneller was maar daar is dan ook gewoon de prijs gestegen ipv de prestatie voor dezelfde prijs. Daar kon je dus wel extra's krijgen zoals jij het brengt maar moest je er flink voor betalen door gebrek aan concurrentie (toevallig ook van amd omdat dat de enige andere speler is voor gpu's) .

Stop met kijken als consument en leer kijken als bedrijf anders blijf je jezelf voor de gek houden.
Oh, sorry, ik vergat natuurlijk dat intel de afgelopen 10-15 jaar de snelheid van hun processoren ieder jaar met een 15-30% wist te vergroten.
:*) :*)
Als je het echt over een tijdspanne van 15 jaar bekijkt dan hebben ze dat dus wel degelijk gedaan. Het lijkt erop dat je het inderdaad bent vergeten.

[Reactie gewijzigd door napata op 22 juli 2024 21:22]

https://www.cpubenchmark....-i7-6700K/3904vs908vs2565

De laatste 15 jaar is de single core Passmarkscore 4,7x zo hoog geworden, dat is 11% per jaar, echter sinds Skylake (6 jaar geleden), is het nog geen 40%, dus nog geen 6% per jaar.

De laatste 6 jaar is veruit de grootste verbetering afkomstig uit verhoging van het aantal MHz, weinig uit de cores.

15 jaar: 4,7, waarvan 2,2 uit aantal MHz (ongeveer de helft van de prestatiewinst.
Laatste 6 jaar 40%, waarvan 24% uit meer MHz.

Dus leuk dat ze het meer dan 6 jaar terug zo goed deden, maar de laatste 6 jaar is het bijzonder weinig.

De extra snelheid komt vooral uit extra cores en die hebben niet altijd zin.
De achtergrond die hier mist is dat Intel traditioneel altijd afwisselt. Nieuwe architecturen op dezelfde nm brengen grote prestatie verbeteringen (denk aan Conroe en Sandy Bridge). De nm vekleining ter zijn vooral ter bevordering van het stroomverbruik en de marge.

Nu het probleem. Die nm verkleining heeft jaren vertraging opgelopen. Door het systeem van Intel volgt zat de architecturale verbetering vast in het product ná 10nm. Met andere woorden Intel is door hun systeem erg lang in skylake blijven hangen (7xxx,8xxx,9xxx). Vervolgens is er met 10xxx een backport gekomen van hetgeen dat gepland stond voor ná de eerste 10nm launch. Die 'rocket lake' had eigenlijk al in de Intel 8 serie moeten zitten.

Binnen die context mogen we eigenlijk niet klagen. De 8700K (6c/12t) uit 2017 verslaat immers nog nipt de 3600 (6c/12t), een derde generatie Zen uit 2019. Pas met de 5000 serie is AMD echt aan de leiding gegaan. Intel heeft de boot lang af kunnen houden.

Grote winnaars zijn vooral in de low-midrange te vinden:
7th: i3 2c/4t
8th: i3 4c/4t
10th: i3 4c/8t

Overigens kan ik uit eigen ervaring medelen dat de minimum fps van Rainbox Six Siege op een Pentium G4560 (skylake budget 2c/4t) beter zijn dan op een 2500K met 4.8 Ghz overclock. Elke keer die paar procent telt blijkbaar over de jaren toch op.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 21:22]

Ik snap prima waardoor Intel al jarenlang weinig extra’s heeft kunnen leveren.

Ik snap ook prima dat Intel extreem lang op een niet werkend, zeer ambitieus (want zeer compact) 10nm-proces heeft gefocust dat ze maar niet werkend kregen.

Ik snap ook prima dat dit nu de 1e keer zou moeten zijn dat ze een goed werkend 10nm-proces hebben en daar ook het ontwerp op gedaan hebben. Dus Alderlake zou echt een flinke verbetering moeten zijn ten opzichte van de voorganger (gebackport van 14nm naar 10nm, daardoor onzuiniger en ruimte tekort, dus kleine caches, dus niet zo snel als oorspronkelijk ontworpen)

Maar daar ging het niet om. Het ging om het gegeven dat Intel de afgelopen 5 weinig extra heeft geleverd en niet om het waarom of wat AMD wel of niet gedaan heeft. Het gegeven werd betwist.

[Reactie gewijzigd door White Feather op 22 juli 2024 21:22]

Ik snap ook prima dat dit nu de 1e keer zou moeten zijn dat ze een goed werkend 10nm-proces hebben en daar ook het ontwerp op gedaan hebben. Dus Alderlake zou echt een flinke verbetering moeten zijn ten opzichte van de voorganger (gebackport van 14nm naar 10nm, daardoor onzuiniger en ruimte tekort, dus kleine caches, dus niet zo snel als oorspronkelijk ontworpen)
Traditioneel gezien zou je weinig moeten verwachten van de eerste (desktop) 10nm omdat Intel normaal gesproken geen innovatie met verkleining combineert.
Maar daar ging het niet om. Het ging om het gegeven dat Intel de afgelopen 5 weinig extra heeft geleverd en niet om het waarom of wat AMD wel of niet gedaan heeft. Het gegeven werd betwist.
Valt wel mee toch? Heb je dat lijstje van die i3 niet gezien? Een Intel Core i3-6100 doet 2221/4165 passmark terwijl een Intel Core i3-10100 2638/8825 doet op passmark. Verder is de al aangehaalde 8700K een prima cpu gebleken, die draait ondertussen alweer 4 jaar high-end mee.
Qua core hebben ze zo goed als niets gedaan.

Die 10100 is alleen maar sneller omdat ze de kloksnelheid hebben opgevoerd en er 2 cores bij gegooid. Nou, wat een innovatie.

10100 heeft een single core passmark van 2638, dat is 18,8% meer dan de 2221 van de 6100, terwijl de kloksnelheid van 3,7 naar 4,3 Ghz gegaan (+16,2%). Dus een whopping 2,2% verbetering door verbeteringen aan de core, memory en caches. En dat terwijl de 6700K 2133 MHz geheugen ondersteunt en de 10100 2666. Dat is een 25% hogere geheugenbandbreedte.

Zelfde laken een pak voor de 2 extra cores.

Een 6700K uit Q2 2015 heeft zo goed als dezelfde benchmarkscores als een 10100.

Dus de 10100 stelt geen bal voor, want die hadden ze 6 jaar geleden al. Als ze die 6 jaar later op een retegoed 14nm proces hadden gemaakt, dan had hij ook nog eens bijna hetzelfde gebruikt als een 10100.

Dus waar zit nu die innovatie?
Het goedkoper aanbieden van 6 jaar oude zut?

Maar ik ben er nu wel een beetje klaar mee.
Tja als je de definitie van waar je het over hebt steeds smaller gaat zetten dan blijft er weinig over om over te discussiëren. Dat er op IPC gebied weinig spectaculairs is gebeurd hadden we het al over gehad en daar waren we het volgens mij al over eens. Zowel over de oorzaak als het gevolg.

Echter om vervolgens te beweren dat Intel het 6 jaar geleden goed deed en de laatste 6 jaar niet is een hele andere discussie. Want wat is goed? Mij lijkt een zinnige invalshoek de prijs/prestatie voor de consument. Daarvan hadden we net vastgesteld dat in de low/midrange onderhand een verdubbeling heeft plaats gevonden.

Een andere invalshoek is de financiële invalshoek. Financieel is Intel de laatste 6 jaar van rond de 60 naar 77 miljard omzet doorgegroeid. Dus ook daar doet Intel het eigenlijk gewoon goed. Hetgeen indrukwekkend is aangezien Intel als reactie op AMD steeds grotere cpu's voor steeds minder geld heeft moeten verkopen. Vergeet niet dat die '6700K' die jij aanhaalt destijds 350 euro opbracht daar waar de 10100 nu voor 125 te koop is. Je kunt minder cpu's per wafer maken en de cpu's die eruit komen zijn daarnaast ook nog voor minder geld te verkopen.

Dan houden we de technische innovatie over. Maar ook daar is wel wat te vinden. Denk bijvoorbeeld aan Ice Lake. Ik heb toevallig zelf iets meer dan een jaar geleden een Suface Pro 7 met een Intel Core i5-1035G4 en dat is een 10nm cpu die letterlijk passief gekoelt wordt. Ondertussen is dat ding hartstikke vlot. Er zit niet eens een fan in die laptop. Intel heeft daar nogal wat stappen gemaakt de laatste jaren. Vergeet verder ook niet de eerste commerciële NVME QLC SSD (660p) in 2018. Qua IPC blijft het wachten op een echte nieuwe architectuur.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 21:22]

Tja als je de definitie van waar je het over hebt steeds smaller gaat zetten dan blijft er weinig over om over te discussiëren.
Oh flikker toch op.
Het ging de hele tijd over wat Intel de laatste 15 jaar had gebracht. De laatste 6 jaar is er single core geen zak gebeurd.

Dan kun je leuk hele verhalen er bij gaan halen over waarom wel of niet, maar dat verandert daar geen hol aan.
Rustaagh.

De laatste 6 jaar heb je gelijk dat er weinig qua IPC is gebeurd. We hebben eerst 4 iteraties van skylake en toen een backport kregen. (Alhoewel er wel workloads te vinden zijn met grotere gains in de 11 series). Op laptop is Intel in 2020 al met 10nm gekomen maar dat was natuurlijk ook geen nieuwe architectuur. Daar was het zo uit mijn hoofd 11.5% voor Ice Lake tov Kaby Lake R. Hoe dan ook; die IPC zal 19 november ongetwijfeld in positieve zin veranderen.

Je originele reactie is overigens verkeerd ingezet omdat we wat betreft 'innovatie' op Mhz sinds 2011 op hetzelfde niveau zitten. Je hebt de verkeerde cpu's gepakt om te vergelijken. In de Conroe tijd draaide een 6700 op 3.2 Ghz en een AUTO volt overclock kwam op ongeveer op 3.8 Ghz uit. Met Sandy Bridge werd dat 3.3 Ghz met een maximale AUTO volt overclock van circa 4.8 Ghz. Ging je tunen dan was x50 haalbaar. Heel veel hoger zijn we ondertussen niet gekomen. Intel had uberhaupt geen serieuze concurrentie dus die konden de clocks kunstmatig terugschroeven zodat Intel elk jaar iets nieuws kon presenteren door 100-200 Mhz op de base clock te gooien. Met andere woorden; qua maximale Mhz per product/architectuur zitten sinds 2011 op ongeveer hetzelfde niveau. (Disclaimer ik heb zelf een E6750, 2500K en 8700K in bezit en overgeclocked).

TLDR: De bewering dat de performance winst vooral van de toegenomen Mhz komt is gebaseerd op een redenatie fout doordat je om onduidelijk redenen een E6300 hebt gepakt en de maximale clock per generatie negeert. Het is puur de onwetende consument die wat wint met die hogere base/boost clocks.

Wat we sinds 2011 hebben gewonnen zit hem dus niet in die 5 Ghz, die hadden we al. Die winst zit in een combinatie van IPC en meer cores/threads. De IPC van sandy bridge naar skylake is aardig opgelopen. Uit eigen ervaring kan ik delen dat mijn 2500K 4.8 Ghz in Siege een minimum fps van rond de 30 haalde. Daar waar de G4560 met zijn 2 cores 4 threads en lagere clock van 3.5 Ghz met 60 fps deze waarde verdubbelede.

Praten we over 15 jaar dan hebben we natuurlijk Conroe (E6700/E6760), Sandy Bridge (2500K/2600K) en Coffee Lake (8700K) gekregen die elke keer de gaming prestaties naar een nieuw niveau hebben getild.

Momenteel heeft AMD de gaming benchmark gezet met de 5000 series. Ik reken er echter wel op dat Alder Lake daar weer aan voorbij gaat. Of dat verder een instant buy wordt is nog even afwachten. Als de geruchten van 40% IPC in combinatie met 5.3 Ghz én PCI5, DDR5 én extra threads uitkomen wel :X .

[Reactie gewijzigd door sdk1985 op 22 juli 2024 21:22]

Ze zijn er ook niet voor jou en mij maar voor geld.
Ze hadden door het falen van amd geen motivatie. En denk niet dat amd je wel significante prestatie winst gaat geven zonder tegengas van intel. Het eerste dat amd deed doen ze de snelste waren was de prijs fors verhogen.

[Reactie gewijzigd door computerjunky op 22 juli 2024 21:22]

We zullen zien hoe veel de komende generatie sneller gaat zijn in real world toepassingen (niet in bursts in Benchmarks).
Vergeet niet dat veruit de meeste realworld workloads die consumenten en zakelijke gebruikers uitvoeren van nature erg spikey zijn in cpu gebruik met korte bursts naar 100% belasting voor enkele seconden en dan vaak weer naar een lagere belasting of zelfs naar (bijna) idle.

Draai maar eens een profiler tool die het cpu gebruik vastlegt over een werkdag of een avond gamen / ontspannen met wat internetten of filmpjes kijken.

Juist workloads die continue de cpu zwaar belasting zijn wat betreft veelal een niche en zul je veel minder tegenkomen dan workloads die juist optimaal presteren met cpu's die erg agressief kunnen boosten voor een kortere periode.

[Reactie gewijzigd door Dennism op 22 juli 2024 21:22]

Tot je met Windows OS werkt en die allerhande taken en overal wel iets aan het doen is waarvan een hoop nodeloos.

Als je enkel uitgaat van je stelling koop dan zelfs nog een dual core of een quad core.

En gaming komt tegenwoordig ook wel al meer met multicore dan single Burst...

[Reactie gewijzigd door d3x op 22 juli 2024 21:22]

Ik heb het dan ook niet over single burst, spikey workloads zijn net zo goed multicore als dat deze in single core kunnen zijn.
Doe maar eens wat ik aangeef en ga eens meten. Als jij een game speelt staat deze niet continu tijdens het spelen de cpu 100% te belasten, nee dat gaat met pieken en dalen. Voorbeeld: dit is natuurlijk geen langdurige profiling, maar even snel een screenshot van taskmanager, maar dit is bijv. mijn systeem tijdens het spelen van een MMO die als redelijk cpu heavy bekend staan, en als nog staat mijn systeem uit de spreekwoordelijke neus te eten. https://imgur.com/QopOQUF

Maar kijk ook bijv. een naar zakelijke workloads, een desktop of laptop van de gemiddelde kantoor medewerker of bijvoorbeeld buitendienst medewerker staat de halve dag uit de neus te vreten om tussendoor telkens voor korte duur belast te worden. Denk aan het verwerken van bijvoorbeeld wat excel data of andere business software. terwijl de machine daarna weer vrijwel idle is tijdens het bekijken van deze data.
Nu is je verklaring al wat duidelijker.

Net daarom hebben Intel en AMD een gelijkaardig profiel van burst cores standaard in hun CPU zitten. Alderlake arch is hier een andere insteek op (ARM alike) , maar met Windows zullen we nog even moeten afwachten of dit wel het beste is. Je moet je BIG cores en cache dan echt volledig in sleep kunnen zetten om er winst uit te kunnen halen. En om dan zo veel winst te doen kwa verbruik om daar cpu die space etc voor op te geven.. ik wil het eerst wel eens degelijk zien in praktijk.

Trouwens voor intel is dit een major change nu met alderlake, voor AMD is dit in huidige vorm al de 3de generatie. Ook Zen4 heeft zelfs een chiplet APU, dus iets van bobcat achtige cores toevoegen is zeer simpel voor AMD.
Net daarom hebben Intel en AMD een gelijkaardig profiel van burst cores standaard in hun CPU zitten.
Dat vind ik dus niet direct, het idee erachter zit natuurlijk op een lijn, maar het profiel erachter vind ik niet direct gelijkwaardig. Zo kiest AMD ervoor in haar spec om de ppt bij de 65W Sku's op 88W te zetten, waardoor deze cpu's wanneer nodig constant 88W mogen verbruiken, bij AMD's 105W Sku's is dat 142W. AMD gebruikt dus geen maximale boost timer, wat Intel in haar spec wel doet met de Tau variabele.

Daarnaast kiest Intel er juist in haar spec om een (veel) hoge PL2 toe te staan dan AMD's ppt terwijl Intels PL1 dan weer een stuk lager is in verhouding, AMD's ppt is immers altijd flink hoger dan het TDP van hun cpu's terwijl bij Intel PL1 altijd gelijk is aan het TDP. Hierdoor zie je dat het verschil tussen maximale boost en base bij Intel over het algemeen veel hoger is dan bij AMD. Wat dat betreft zet Intel al tijden veel meer in dan AMD op spikey workloads, pas sinds Zen 3 kan AMD hier eigenlijk redelijk goed meekomen.
Je moet je BIG cores en cache dan echt volledig in sleep kunnen zetten om er winst uit te kunnen halen. En om dan zo veel winst te doen kwa verbruik om daar cpu die space etc voor op te geven.. ik wil het eerst wel eens degelijk zien in praktijk.
Ik denk dat je hier een deel van het idee mist, het verminderen van verbruik zal immers op de desktop slechts een secundair doel zijn. Wat veel mensen lijken te missen is dat het er op lijkt dat Alder Lake 2 dingen wil doen, aan de ene kant inderdaad in Idle / low load minder verbruiken door de E-cores te gebruiken, echter zou ik er niet direct op rekenen dat op volle belasting het verbruik ook veel minder gaat zijn. Door het verbeterde 10nm proces (Nu Intel 7 genaamd) zullen ze vast wat verbeteren qua efficiency, maar onder load ga ik geen wonderen verwachten.

Het andere, en dit is imho voor de desktop veel belangrijker, is dat je met de E-cores simpelweg je multithread performance mogelijk flink kan verhogen. Op de die space van 1 P-core kan je 4 E-cores krijgt, gezien de claim dat de E-cores beter presteren dan Skylake Cores clock voor clock, krijg je dus afhankelijk van de Sku met 4 of 8 E-cores er 1 of 2 6600K achtige performance bij voor multithread workloads. Waar een AMD 5600X of Intel 11600K momenteel 6 P cores hebben voor multithread workloads heeft straks bijvoorbeeld een 12600K straks 6 P-cores (met, volgens Intel, dus korreltje zout, 19% meer IPC dan de 11600K) en ook nog eens 4 E-cores.

Ik krijg echt het idee dat er teveel ingezoomd wordt op het mogelijke mindere energie verbruik in idle / sommige workloads, terwijl mensen totaal lijken te vergeten dat het mijn inziens, in ieder geval ook gewoon een gooi is naar meer multithread performance op een manier die qua Die space efficiënter is dan simpelweg meer P-cores toevoegen.

Ik zie het veel meer als een gooi naar een 'best of both worlds' scenario, waarvan het natuurlijk de vraag zal zijn of het lukt (en dat zullen de benchmarks wel uitwijzen), waarbij Intel enerzijds voor o.a. mobile een betere efficiëntie kan verkrijgen, maar ook de multithread performance flink kan verhogen op momenten dat je die nodig hebt.

[Reactie gewijzigd door Dennism op 22 juli 2024 21:22]

Task manager kan wel snel een vertekend beeld opleveren. Weet je nog de eerste dual core systemen? Als je toen een applicatie draaide die niet multithreaded was dan zag je netjes 50% belasting in taakbeheer omdat die thread steeds heen en weer werd gegooid.

De moderne equivalent daarvan is eigenlijk vaak de verstopte main game thread die op één thread richting de 80%+ belasting gaat. Als je die meer lucht geeft, lees meer Mhz, dan wordt vaak ook de belasting op de overige threads ook groter. Mits je GPU de boel kan bijbenen natuurlijk.
Gewoon een tijdje w88. De Scarlet glazendragers worden dan opeens weer blue fanatics. Of wanneer ze dat uit schaamte niet willen: supporters of the underdog.
maar processoren maken, dat was de afgelopen 10-15 jaar niet zo geweldig.
Volgens mij loop je nu dingen te verkondigen die je niet daadwerkelijk heb meegemaakt.

Juist de periode van 15 jaar tot zo een 5 jaar geleden is Intel echt heer en meester geweest op CPU gebied. Core 2 Duo met dual core CPUs, een jaar later al quad core CPUs. Dat is na de ongein met de P4 CPUs geweest.

@White Feather Hoe wil je anders een product vergelijken, naast een vergelijking met zichzelf zal je dat met de concurrentie moeten vergelijken anders kan je daar heel moeilijk wat over zeggen. We weten dat Intel er met de pet naar heeft gegooid juist omdat AMD dat niet heeft gedaan. Als er geen AMD was geweest hadden we nooit geweten dat Intel helemaal niet tegen technische limieten aanliep, maar gewoon op hun lauweren hebben gezeten. Dat had je natuurlijk ook kunnen claimen zonder AMD, maar dan had je gewoon wat uit je duim gezogen...

Ik geef je gelijk over de producten van de afgelopen 5 jaar, niet over de claim van Jan Onderwater dat het al 10-15 bagger gaat met Intel.
In de tijd van c2d en de eerste quad cores van Intel, hield AMD nog flink bij hoor. Het was continu een trade-off tussen welke nu de betere multi-core performance had.
In die tijd was het ook nog zo dat AMD flatout won op de "ruwe rekenkracht" waar Intel betere power management had.

AMD had met de Phenom II nog een hele grote sprong gemaakt op Intel, welke vervolgens weer snel werd ingehaald.

Intel is wel onontkenbaar top-dog geweest sinds ze begonnen met de I-serie processoren. (I3, I5, I7 enz). Vanaf dat moment waren ze tot Ryzen zeker koning ja, mee eens.

Ik zit zelf nog op een 4790K. Dat was ook wel echt HET bakbeest van Intel destijds. Was echt een gigantische sprong in performance. Het is volgens mij pas sinds de... 8000 series (?) dat er weer een merkbaar performance verschil was sinds de 4790K tho.
Ik zit zelf nog op een 4790K. Dat was ook wel echt HET bakbeest van Intel destijds. Was echt een gigantische sprong in performance. Het is volgens mij pas sinds de... 8000 series (?) dat er weer een merkbaar performance verschil was sinds de 4790K tho.
Nee joh, de 2500K/2600K kon je op lucht op 5 Ghz draaien, daar waar de voorgaande i7 870 op 3.9 Ghz piekte. Dat was een enorme sprong vooruit. De 3xxx en 4xxx daarna waren iteratief en brachten beperkte IPC verbeteringen terwijl de maximale clocks wat lager werden. Als je een 2600K had gekocht dan had je min of meer dezelfde prestaties, maar dan 2 jaar eerder.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 21:22]

Nou ja, ik hield eerlijk gezegd geen rekening met overclocking. Ik prefereer out of the box performance.
Ik zal even vergelijken met een 2700K ipv een 2600K, gezien deze net wat krachtiger is.
Maar zelfs dan;
De 4790K had een 25% hogere single-core performance én multi-core performance, waarbij dit met overclocking verminderde naar alsnog 20%.
De 4790K had support voor DDR3-1600 tegenover 1333.
De 4790K (of iig de mijne) kwam out of the box al met overclocking tot 4,4ghz met turbo tot 4,8ghz
De 4790K had VT-d support
De 4790K had PCI-e 3.0 support
De 4790K had AVX2, F16C en FMA3 en een grotere memory-bandwith.
En dit allemaal met een net wat lagere TDP.

Ik ben het met je eens dat de 2000 series absolute krachtpatsers waren, maar daar hield het ook wel een beetje mee op. De 4000 series (en dan met name de 4790K) waren echter véél meer future-proof met betere architectuur en een general upgrade voor mobo's. Voor de gemiddelde gebruiker zal het verschil denk ik niet erg merkbaar zijn, maar vooral nu deze processoren eindelijk af beginnen te vallen, komen deze verschillen wel vrij sterk naar boven.Tevens kan ik naar mijn weten, mijn 4790K prima overclocken naar 5GHZ op lucht (met mijn Scythe Mugen koeler uit 2010). Volgens mij draaien meerdere mensen hem op 5.2ghz met waterkoeling.

Ik moet je zeker nageven dat de 2000 series echt super goed was maar de 4790K was in die tijd wel echt veruit de beste processor op de markt. Upgraden was het ook echt totaal niet waard tot de 7700K om de hoek kwam kijken voor een opvallend lage prijs, waarmee de verschillen tussen de 4790K en de 7700K ong even groot waren als de verschillen tussen de 2700K en de 4790K (dat is toch alweer een hele generatie meer). Het feit dat de 7700K echter vrijwel geen verschillen had met de 4790K behalve pure speed-gains (zelfde soorten architecturen enz) en ook weer iets omhoog is gegaan in TDP, maakt de verschillen dan echter wel weer wat kleiner.
Verschil bij gelijke clock is vaak nog geen 5% tussen een 2600K en een 4790K. Zie https://youtu.be/D8x4X5rpR30?t=178 Daarbij is dan nog even het probleem dat in de basis een 2600K makkelijker/beter overclocked. Hier is er wel ééntje op 5 Ghz te vinden. Dus wat mij betreft blijft het punt overeind dat je net zo goed 2 jaar eerder een sandy bridge had kunnen aanschaffen. Die waren nog 50-100 euro goedkoper ook ;).

In de tijd dat je de 4790K kon kopen was de 4670K eigenlijk de meest logische optie voor gaming. Die i5 was achteraf echter een stuk minder future proof. Het moment dat de 8700K uit kwam was eigenlijk hét moment dat zowel de 2500K als de 4670K aan vervanging toe waren omdat games richting 6 threads gingen (opnieuw was de sandy bridge wat dat betreft de beste koop). De 2600K/4690K konden dankzij hyperthreading de boel nog wel redden qua minimum fps.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 21:22]

Ben je Conroe en Sandy Bridge vergeten? Zeker die eerste was een gigantische sprong in prestaties waarvoor de hype meer dan terecht was.
2009 en 2011, goed, 10 jaar dus.
My buybots are ready!
Ik zie het zelfde grote probleem al ontstaan als bij GPU's. Mensen die massaal CPU's gaan opkopen om duurder door te verkopen of gewoon gaan gebruiken voor het minen van crypto. Het waait over van GPU naar CPU.
Mensen die massaal CPU's gaan opkopen om duurder door te verkopen of gewoon gaan gebruiken voor het minen van crypto.
Volgens mij kan je al heel lang niet meer effectief met CPUs minen, dus in het mine circuit zal er niet bijzonder veel vraag naar zijn. Natuurlijk heb je mining rigs die aangestuurd worden door CPUs, maar dat kan je al aansturen met vrij el'cheapo CPUs per 7-13 GPUs. Miners hebben ook geen interesse in (deze) nieuwe CPUs omdat die weer een hele nieuwe socket hebben en dus weer een heel nieuw moederbord.

Je hebt dus niet opeens super veel vraag naar deze nieuwe CPUs (vanuit de mining branch). Wellicht dat tijdelijk een piek vraag hebt naar een nieuw high-end product zoals we zagen bij de 5950X, dat was echter van korte duur en van de 20 aanbieders in PW, hebben 14 daarvan ze ook daadwerkelijk op voorraad. Als je dan bv. bij Azerty kijk hebben ze er 61 op voorraad en heeft de leverancier er 569 op voorraad... De laagste prijs momenteel in PW is €749, welke bijna 10% onder MSRP ligt, iets wat absoluut niet het geval is bij GPUs! En dit geld niet alleen voor het duurste model, ook met de 5600X ziet dat er zo uit. En niet alleen voor AMD, maar ook voor Intel.

CPU != GPU
Met schoenen kun je ook niet minen maar die worden ook gescalped.

Als er ergens flinke vraag naar is, komen er scalpers om de hoek kijken. Zo simpel is het.

Laten we hopen dat de lange duur van CPU's (een goede CPU kan makkelijk 5 jaar mee, moeizaam 10) het oninteressant maakt voor scalpers, maar met windows 11 en de nieuwe systeemeisen zou het een issue kunnen worden.
Als er ergens flinke vraag naar is, komen er scalpers om de hoek kijken. Zo simpel is het.
Nee.

Het is flinke vraag en beperkt aanbod, het verschil tussen die twee moeten scalpers namelijk opkopen en dan maar hopen dat er niet nog meer product om de hoek komt kijken om de prijs weer omlaag te krijgen.

Laten we in Nederland kijken, je zou vandaag waarschijnlijk 1000 CPUs kunnen vinden van elk type, dat is miljoenen euro's dat 'de scalpers' even moeten ophoesten, dan moeten ze die ook nog verkopen tegen woeker marges (zeg het dubbele). Hoeveel mensen hebben dat ervoor over? Zeker als de concurrentie CPUs gewoon in de winkel liggen. Of denk je nu echt dat mensen collectief allemaal opeens een nieuwe Intel CPU gaan aanschaffen waarvan nog maar moet blijken dat het goed werkt met alles? Het is niet alsof dit de zoveelste Intel CPU is in generatie x, die secondaire cores zouden nog wel eens voor een hoop issues kunnen zorgen op het x86 platform, zeker met oudere software.

En dan hebben we natuurlijk nog de PC makers, die direct van Intel al afnemen, gaan de scalpers ook opeens alle Dells, HPs, etc. opkopen? 'De scalpers' hebben daar het kapitaal niet voor en gaan al helemaal niet het risico nemen. Het CPU landschap is iets heel anders dan de GPUs en de consoles. Als je alles maar kon opkopen wat populair was en het met veel marge kan verkopen, dan had men dat nu opnieuw gedaan met de Nintendo Switch, welke in heel Nederland nu op de schappen ligt.

Een scalper neemt relatief weinig risico, anders is deze maar heel kort scalper. Natuurlijk heb je gastjes er tussen zitten die het proberen met hun spaarpotje, maar dat zijn juist de scalpers waar je weinig van heb te vrezen, eerder vroeger dan later loopt deze tegen de lamp en koopt een product welke hij met flink verlies moet verkopen.
Hmmmm denk trouwens wel dat je mogelijk wel gelijk hebt inderdaad. Bedankt voor de correctie.

Ik zat nog even met m'n hoofd in de tijd dat CPU's ook amper verkrijgbaar waren (rond de 5000 series release van Ryzen)
Ik heb zo mijn twijfels of Intel deze types überhaupt wel verkoopt aan de gewone consument en dat het niet eerder B2B is.
Ik hoop dat ze het gaan doen want de afname zal denk ik zeer meevallen met ddr5 op komst. Ik raad iedereen even aaan geen dure upgrade te doen tot we weten hoe ddrt5 gaming performance gaat beïnvloeden. Als scalpers dus even hun spaargeld uitgeven aan een product dat ze tegen verlies moeten verkopen zit ik hier te grinniken.
Cpu mining gaat denk ik nooit meer gebeuren. Gpu's hebben veel meer brute rekenkracht en dan wordt het minen op cpu's nooit rendabel tegenover gpu's.

Waarschijnlijk worden deze cpu's wel massaal gescalpt. echter zal deze markt zich veel sneller herstellen dan gpu's vanwege het feit dat er geen miners zijn die ze in grote bulk willen hebben.
ben benieuwd met wat amd straks komt. toch heeft intel sowieso mijn hart al even verloren.
Intel, je hart verloren? ik vind ze beiden goed dat is een ding wat zeker is maar voor gaming is Intel, echt wel een must.
Sorry? Intel heeft op dat vlak de prestatiekroon ook verloren, hoor. https://www.tomshardware.com/reviews/best-cpus,3986.html . en dat is bij mijn weten al zeker een jaar zo.
Al zeker een jaar zeker niet. Ryzen 5xxx is uit sinds 5 nov. Net geen 10 maanden dus.

En dan hebben we het alleen over high end waar prijs er niet toe doet. Als je budget kijkt heeft intel ineens de beste kaarten in handen omdat de 5600x gewoon te duur is.

Zo zwart wit is het dus niet.

[Reactie gewijzigd door computerjunky op 22 juli 2024 21:22]

Dat is wel heel erg duur gamen zeg onnodig dus.

ik heb de i5 11400, lekker goedkoop en ik kan elke game spelen die AMD, is leuk voor werk maar daar blijft het ook bij voor mij daarnaast zijn de single cores beter van Intel.

Maar goed als je iemand bent die graag zijn pc showed, is overkill altijd leuk dan moet je inderdaad bij de AMD, wezen maar goed dat is mijn mening.
Zie post fanboysm.. je kan er vlotjes in mee .

Nu er uiteindelijk van Intel eens een budget CPU met 6core is die wat prestaties zet in games is het de hele wereld

[Reactie gewijzigd door d3x op 22 juli 2024 21:22]

Komt nog wel als je wijzer word dan begrijp je precies wat ik bedoel.

voor nu fijne dag verder.
Alvorens wie hier dankzij deze supper fantastisch vol met gestaafde inhoud er weer een Intel - AMD fanboy hoopje van wordt gemaakt.

Wie wat of welke beter vind is eigen keuze.... Dit is tweakers website dus je gaat er vanuit dat de meeste zelfbouw systeem kopen en maken. Kijk dan even verder dan je neus en kijk naar de meeste sites die weergeven wat het meest verkocht wordt en trek je conclusies...

https://www.pcgamer.com/u...everal-popular-retailers/

https://www.google.com/am...il-desktop-cpu-sales.html

Niet akkoord? Blijf dan gewoon een fanboy en koop wat jij wil en al de rest van de pogingen om hier een mening te delen vervallen toch zo in fanboysm dat het er afdruipt.. en natuurlijk al die duizenden die iets anders kopen zijn onwetend en fout en volgen media sites zoals "kuch" tweakers die ook graag tegen de stroom invaren....
het is maar hoe je het bekijkt.
vind ik zeker niet. intel is op het moment weer net iets beter door de nieuwe generatie. maar goed dat is natuurlijk ook wel het enigste!
Daarom meningen verschillen.
Ze gingen in een paar jaar 1000x meer performance leveren toch? Nou dan wacht ik ff met m'n aankopen want deze chip is daar nog lang niet. /sarcasm
en de X699 komt ook later?
690 ondersteunt alleen ddr5,en dat is de eerste jaren gruwelijk duur,dus niet interessant.
Als de geheugen controller op de cpu zit waarom is er dan onderscheid qua support op basis van de chipset?

Op dit item kan niet meer gereageerd worden.