Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Specificaties onaangekondigde Intel Core i7 8086K duiken op

Intel lijkt van plan te zijn een nieuwe telg in de Core i7-reeks uit te brengen met de 8086K. De nieuwe cpu binnen de Coffee Lake-S lijkt vergelijkbare specificaties te krijgen als de Core i7 8700K, en zou uitgebracht worden ter ere van het 40-jarige bestaan van de 8086-processor.

De nieuwe processor zou door Intel worden getest, en is in handen gekomen van een Chinees die er informatie over naar buiten bracht, zo merkte Wccftech op. De Core i7 8086K valt binnen de Coffee Lake S-familie en heeft een basiskloksnelheid van 4,0GHz, met boost naar 5,1GHz. Daarmee heeft de processor een iets hogere kloksnelheid dan de Core i7 8700K, waarmee het veel eigenschappen deelt, waaronder zes cores en de UHD 630-gpu. Verder heeft de nieuwe processor een tdp van 95W.

Volgens de geruchten brengt Intel de 8086K uit ter ere van de veertigste verjaardag van de eerste 8086-processor. Intel zelf heeft er echter nog niets over naar buiten gebracht, waardoor de precieze releasedatum en introductieprijs nog niet bekend is. Het is niet de eerste keer dat Intel een anniversary edition uitbrengt van een processor; eerder deed het dat vanwege de twintigste verjaardag van de Pentium.

Door

Admin Mobile / Nieuwsposter

154 Linkedin Google+

Reacties (154)

Wijzig sortering
Want :D. Zou wel cool zijn als ze 'm dan ook leveren met een oude editie van MS-DOS :p
Want :D. Zou wel cool zijn als ze 'm dan ook leveren met een oude editie van MS-DOS :p
MS-DOS kwam pas in 1981 uit als PC-DOS voor de IBM PC. De 8086 was er al in 1978, je zal dus CP/M moeten draaien. ;) :P

Ben benieuwd hoe de co-processor eruit komt te zien. Die zal je ook wel weer nodig hebben als we terug gaan naar de 8086. }:O
er zit al een co-processor op, maar dan wel voor de graphics, namelijk de UHD-630 ;)
Ik snap persoonlijk niet waarom een 6-core i7 met 4ghz-5.1ghz frequentie een UHD-630 nodig heeft.
Welke mafkees gaat nou zo een krachtige desktop CPU kopen en géén discrete grafische kaart?
Kan iemand mij een geloofwaardige gebruiksscenario vertellen voor deze CPU (zonder GFX kaart)? :+

(Of is het gebruik van de UHD-630 als 'ondersteunende' GFX kaart of voor het offloaden van bepaalde berekeningen inmiddels volwassen genoeg dat dat het bestaansrecht zou kunnen valideren?)

[Reactie gewijzigd door Ayporos op 15 april 2018 17:10]

Behoorlijk Video surveillance center voor IP cams, dingen werden paar jaar terug standaard geleverd met i5 en i7 (oa i7 3770) dan hebben we het over 16 channels of meer.
Nope, als je voor een server gaat heb je genoeg aan IPMI gewen grafische kaart of monitor nodig
En als je de cores e.d. nodig hebt voor rekenwerk, kan je ook beter voor een xeon of EPYC gaan.

Degenen die deze chip met integrated grapics gebruiken zijn ... managers!
Als dat zo simpel zou zijn werd geen enkele server met een grafische chip geleverd. In de praktijk zat er altijd wel een derderangs videochip op het moederbord om 2D beeld te leveren voor je monitor of IPMI. Al was het maar om door een grafische installer te komen. Daarnaast is IPMI helemaal niet zo normaal in high-security environments omdat er vrijwel geen echte beveiliging op zit, dus blijft men daar nog steeds met KVM werken.
Redelijk kort door de bocht, nietwaar? Een i7-build zal relatief gezien een stuk goedkoper zijn dan een Xeon-build. Je hebt met Xeon-builds namelijk te maken met zeer prijzige moederborden en ECC Registered geheugen. Met wat geluk is de prestatie/¤ verhouding tussen een Xeon en i7 verder wel redelijk gelijk.

Je merkt 't al: Voor de hobbyist is een i7-build aantrekkelijker dan een peperdure Xeon-build. Je krijgt voor de meerprijs van een Xeon-build echter wel vaak wat meer stabiliteit en redundancy terug. Dat is dus de afweging die men moet maken. Tevens is het verschil tussen OEM-built en self-built ook nog erg groot. Maar dat hoef ik de gemiddelde Tweaker natuurlijk niet te vertellen.

Al met al gaat het dus puur om de use case en het budget. Xeon met een prachtige IPMI is nou eenmaal niet voor iedereen/ieder doel weggelegd. Evenals de prachtige terminal. ;)
Het ligt eraan wat je wil. Het grote voordeel van Xeon systemen is dat er erg veel nieuw tweede hands te krijgen is als je niet voor de 12+ core modellen en maximum geheugen gaat.

Je kan ongebruikte of bijna niet gebruikte CPUs kopen van bedrijven die hun server bij of vlak na aanschaf al upgrade omdat ze toch meer capaciteit nodig hadden. Je kan vaak goedkope 8GB RDIMMs kopen voor weinig omdat iemand zijn geheugen heeft vervangen voor 16GB RDIMMs.

Het enige prijzige onderdeel is dan nog het moederbord met IPMI, maar dan heb je een systeem waar geen i7 tegenop kan. Maar zelfs als je een systeem met alles nieuw bouwt hoeft het niet duurder te zijn dan een i7 systeem, Xeon E3 systemen met i7 equivalenten zijn als je niet wil overklokken en gaat gamen vaak goedkoper dan de vergelijkbare i7. En de in de i7 geïntegreerde GPU ga je dan toch niet gebruiken.

Je moet wel wat beter zoeken om de onderdelen voor een redelijke prijs te kopen.
Ik heb in 2015 juist voor een XEON build gekozen (HTPC update 2015) omdat het prijsverschil met een i7 bijna 70 piek was uit mijn hoofd. Kan me ook niet herinneren dat ik nou zoveel heb betaald voor het moederbord destijds...
IPMI pakt toch juist de output van de bestaande grafische kaart? Heb nog nooit een graphics driver voor een IPMI kaart gezien. Zelfde geld voor keyboard/mouse, die zitten gewoon op een USB poort.
Op de IPMI moederborden die ik heb zit een simpele grafische chip geintegreerd op het moederbord. Voordeel op de geintegreerde GPU van intel is dat deze via het netwerk beeld kan doorgeven en werkt voor alle andere zaken zijn gestart. Je kan dus remote je BIOS instellingen wijzigen.

Overigens heb ik alle IPMI op een fysiek separaat netwerk zitten ivm hacken.
mijn homeserver gebruikt zijn integrated graphics toch echt wel. dus je argument met "Nope" beginnen is sowieso weer erg flauw en vooral makkelijk.

voorbeeld, het converteren van en naar H264 video gaat op een IGPU meer dan prima. verder hoeft het dier alleen maar een bash terminal uit te hoesten.

ik heb daar geen Xeon of wat dan ook voor nodig, want home-server. als het ding er een dag uit klapt dan kunnen we daar ook wel weer mee leven.

even verder kijken dan je eigen neus lang is.
Ik had inderdaad even niet aan media servers gedacht.

Voor een applicationserver, fileserver, buildserver of NAS is er geen voordeel aan een IGP.
Wat moet ik met een discrete grafische kaart? Ik ben geen gamer! Wat ik nodig heb zijn veel cores en veel RAM. Rekenkracht, daar heb ik wat aan! maar grafisch? nee, wat moet ik daarmee? minen? Ik denk niet dat dat tegenwoordig nog zo zinnig is.
Alsof gamers en miners de enigen zijn die een grafische kaart kunnen gebruiken. Het gaat ook om zaken als beeldkwaliteit, resolutie, gebruik van meerdere monitoren, etc.
Het gaat ook om zaken als beeldkwaliteit,
Digitaal = digitaal.
resolutie, gebruik van meerdere monitoren, etc.
Een moderne Intel CPU kan drie schermen met elk een resolutie van 4096x2304@60Hz aansturen. Dat lijkt mij geen significante beperking. Ja, je moet een voorbereid moederbord hebben, maar dat geniet nog steeds de voorkeur in plaats van een aparte videokaart als dat niet nodig is.
VGA is niet digitaal, maar bijvoorbeeld de manier van renderen heeft ook bij volledig digitale signaalweg zoals HDMI of DVI-D invloed op de beeldkwaliteit. Overigens is het aansturen van 3 schermen een significante beperking, zelfs als het vinden van een moederbord dat dat kan, dat niet is.
Stel je hebt niet genoeg geld om in 1x je systeem te kopen, kan je iig gebruik maken van de cpu en nagaan dat het moederbord geen probleem heeft en dergelijke. Of wanneer je grafische kaart kapoet is en je moet wachten op een vervanger. Of je moet debuggen wat er kapot is, zijn allemaal veelgebruikte en valide dingen
Beide eerste voorbeelden is mij overkomen. Inderdaad goede voorbeelden
Als programmeur kan ik je vertellen dat je gerust een beest van een CPU met copieuze hoeveelheden RAM nodig kan hebben, zonder ook maar iets noemenswaardigs met een GPU te doen.

Als ik bijvoorbeeld even een nieuwe release van OpenCV ga compileren, dan issie gerust een uur bezig met een i5 en dan begin ik tegen mijn 16GB aan te hikken. Verder doet de iGPU daar geen afbreuk aan. Meer cores maken dan echt enorm verschil, en daarbij komt de noodzaak voor een hoop RAM.

Dus ja; er is een legitieme use-case voor enkel een goede CPU met veel RAM, maar zonder dGPU, en dit zal vast niet de enige zijn. De notie dat je dus maar een goede GPU moet hebben zodra je een snelle CPU hebt, is m.i. onzin.
Geen ECC?.... want een i7 ondersteunt geen ECC... ;)
Ook van ECC zie ik het toegevoegde nut niet in, in ieder geval voor mijn use-case niet. Voor kritische servers die de hele dag en nacht staan de compileren, sure. Maar voor mijn computertje die een uurtje staat te compileren, voor de hobby? Nee hoor, totaal niet nodig.
En jij je een ongeluk zoeken naar de crash, tot je het programma opnieuw compileert en het opeens wel werkt.
En jij je een ongeluk zoeken naar de crash, tot je het programma opnieuw compileert en het opeens wel werkt.
Risico = impact * kans. Als de kans klein genoeg is, dan kan het risico acceptabel zijn.
Mee eens, maar als je voor dezelfde prijs voor ECC kunt kiezen is zelfs het geringste risico al significant.
Tja, daar heb ik dus een server voor neergezet. Heerlijk na iedere commit automatisch een mail met welke unit tests falen of natuurlijk dat alles ok is. Ondertussen gewoon verder werken zonder vertraging op mijn werk PC.
Als je nou een keer een probleem hebt met je gpu wat ik een jaartje terug had met mijn R9 280x moest ik voor een paar dagen een IGPU gebruiken van mijn i7 4770K om te kijken wat er nou mis is. Dus een IGPU is van mij welkom.
Los van de andere genoemde use-cases vind ik het toch erg prettig tijdens het constateren van een defect aan mijn videokaart; even via de iGPU kijken of het dan wel werkt :P

Daarnaast kan het zijn dat die videokaart dan terug moet en het wel even duurt; kun je in ieder geval toch internetten en simpele dingen doen totdat ie terug is :)
Ik snap persoonlijk niet waarom een 6-core i7 met 4ghz-5.1ghz frequentie een UHD-630 nodig heeft.
Welke mafkees gaat nou zo een krachtige desktop CPU kopen en géén discrete grafische kaart?
Kan iemand mij een geloofwaardige gebruiksscenario vertellen voor deze CPU (zonder GFX kaart)? :+

(Of is het gebruik van de UHD-630 als 'ondersteunende' GFX kaart of voor het offloaden van bepaalde berekeningen inmiddels volwassen genoeg dat dat het bestaansrecht zou kunnen valideren?)
Nou, ik.
Ik wil gewoon een krachtige PC met 3 schermen, Het hoeft geen Far Cry 24 te draaien.
Daarom vind ik laptops kiezen altijd zo moeilijk, het lijkt wel of er bij een super snelle laptop ook altijd high end graphics in moet zitten. Terwijl ik eigenlijk alleen de beste IO en beste CPU performance wil.
tja - en dat is nog het ergste van alles, het lijkt vooralsnog nog steeds niet mogelijk om (in ieder geval in windows) taken op verschillende gpu's te laten uitvoeren.

persoonlijk zou ik het in ieder geval geweldig vinden als ik zaken als encryptie en decryptie op zo'n igpu kon laten uitvoeren terwijl ik een Rx4xx kaartje laat werken voor het verwerken van films of games die ik aan het spelen ben.

ik denk dat veel mensen wel snappen dat je geen intel gpu in crosfire of sli met een amd of nvidia gpu kunt laten werken, en zelfs als dat wel kon zijn die respectievelijke technieken al lang niet meer zo rendabel als voorheen. maar dat neemt niet weg dat je zo'n igpu dan maar voor jan lul op de chip moet hebben, dius haal hem OF weg, OF leer hem effcient in te zetten voor taken die niet persé door je hoofd gpu gedaan hoeven worden. of dat nu rendering, encryptie, of omzetten van beeldformaten betreft.
Ik heb een Core i7-6700K en een GTX1080 met 3 schermen voor racen. En ik gebruik de Intel HD Graphics 530 voor een 4de scherm. Werkt prima en laat de FPS'n op Eyefinity ongemoeid.
Als hypervisor heb je niet zon zware gpu nodig
Ik gebruik DAW’s en veel VST’s om muziek te maken. Doe mij maar zoveel mogelijk CPU power. Ik heb geen losse grafische kaart nodig hoor.
Een development workstation bijvoorbeeld?
Ik zou geen behoefte hebben aan een extra gpu. Speel geen spellen dus niet nodig lijkt me.
Je speelt geen spellen maar hebt wel een 6-core super krachtige i7 CPU nodig... waar heb je die rekenkracht wél voor nodig dan?
Er zijn genoeg rekenmodellen, simulatiemodellen,... die geen nood hebben aan een snelle videokaart.
Snelheid is niet de enige eigenschap van een videokaart; er zijn genoeg rekenmodellen en simulatiemodellen die grafisch gepresenteerd worden. Je hebt dan baat bij resolutie, aansluiten van meerdere monitoren, renderkwaliteit, etc.
Ik ben zo'n mafkees.
Heb sinds november een 8700 zonder grafische kaart.
Toepassing: Lightroom CS6, die geen gebruik maakt van een discrete grafische kaart.
Ik kan je zeggen dat Lightroom nu (eindelijk) naar behoren performt!
Iemand die alleen VM's draait heeft niet persé een dedicated gpu nodig ;)
Veel mensen met zware CPU-eisen hebben quasi geen nood aan grafische rekenkracht. Veel mensen moeten voor hun werk bijvoorbeeld software compileren, monsterlijk grote spreadsheets bewerken of niet-GPU geaccelereerd simulaties draaien. Daarvoor is een zware CPU handig, maar heb je absoluut geen grafische kaart nodig.
Wat moet je als developer met een discrete grafische kaart, als je niet van gamen houdt?
Wat moet je als (een beetje serieuze) developer met een CPU die geen ECC geheugen ondersteunt?...
Niet iedere developer heeft een sterke grafische kaart nodig.

Als tweaker zou je dat toch moeten weten ;)

[Reactie gewijzigd door Brummetje op 15 april 2018 18:30]

Het meeste dev-werk zit in niet-grafisch werk, slechts een fractie is grafisch renderingswerk aan het doen. Al zie je dat ook steeds meer verschuiven naar dedicated renderfarms zodat de dev geen megaduur werkstation meer hoeft te hebben. In zo'n geval (en dat zie je steeds meer) is een APU dus doodnormaal in tegenstelling tot een dure lawaaiige videokaart erbij.
Coprocessor? Dat moet de 8087 zijn.
Ik mag hopen dat de Floating point ook hardware assisted is....
Anders is er wel een domper....
Ben benieuwd hoe de co-processor eruit komt te zien. Die zal je ook wel weer nodig hebben als we terug gaan naar de 8086. }:O
Die co-processor was lang niet altijd nodig. En een extra uitgave.
Die co-processor was lang niet altijd nodig. En een extra uitgave.
Echt wel dat je die nodig had. Zaken als floating point berekeningen was afzien zonder een co-processor. Je kon het verschil wel merken bij systemen met en zonder co-processor. Pas vanaf de 486 kon je zonder co-processor omdat de belangrijkste functies van de co-processor op de CPU zelf zaten.

De Pentium 1 was de eerste CPU die ik had welke ik niet voorzag van een co-processor.
Echt wel dat je die nodig had. Zaken als floating point berekeningen was afzien zonder
..maar ik berekende niks ;)
Nee, het calculeren van zaken die op je scherm plaatsvonden waren geen berekeningen.
Nee, het calculeren van zaken die op je scherm plaatsvonden waren geen berekeningen.
Niet in de zin van floating point / co-processor-achtige handelingen, nee. WordPerfect gaat prima.
Ik had in in die tijd een 80286 met een 80287 coprocessor vanwege autocad.
Dat draaide namelijk niet zonder zo'n ding, vanwege alle vectorberekeningen voor het scherm.
Klopt. Maar AutoCad is dan ook wat anders dan tekstverwerken. :)
Only arithmetic operations benefited from installation of an 8087;
Computers used only with such applications as word processing, for example, would not
benefit from the extra expense
.
Klopt ook, maar je zegt "Echt wel dat je die nodig had", zonder erbij te zetten dat dat enkel gold voor applicaties die iets met floating point deden. De meeste pc-gebruikers in het begin deden simpele tekstverwerking en boekhouding en dat ging prima zonder FPU. Een beetje alsof je zou stellen 'Echt wel dat je vroeger een auto nodig had', alsof er vroeger ook niet mensen gewoon met de fiets of lopend ergens naartoe konden.
Klopt ook, maar je zegt "Echt wel dat je die nodig had",
Correctie. Het is CMD-Snake die dat zei, niet ik.
Oeps, je hebt helemaal gelijk.
Ik had in in die tijd een 80286 met een 80287 coprocessor vanwege autocad.
Dat draaide namelijk niet zonder zo'n ding, vanwege alle vectorberekeningen voor het scherm.
Met de juiste extra software kon je met alleen de 8086 ook wel uit de voeten, alleen een flink stuk trager. Tot de komst van de 486DX heb Ik heb jarenlang Autocad gedraaid met behulp van een coprocessor emulator.
Ik heb die emulator ook gehad, ik meen dat een student aan de TU-delft die heeft geschreven in 1988.
Mijn beleving is toch anders op een 80286/16MHz was er niet mee te werken.
Omdat het scherm bestaat uit discrete pixels, heb je op geen enkele manier drijvendekommaberekeningen nodig. Die gebruikte je vooral voor spreadsheets, CAD-werk en rekenmodellen.

Nou kan het natuurlijk dat de minder ervaren programmeur niet goed op zijn types let waardoor de compiler automatisch drijvendekommagetallen gebruikt, maar daarvan kun je de processor niet de schuld geven.

[Reactie gewijzigd door mae-t.net op 16 april 2018 02:44]

Pas vanaf de 486 kon je zonder co-processor omdat de belangrijkste functies van de co-processor op de CPU zelf zaten
De 486DX had een coprocessor aan boord...
In de 486SX / 487SX combinatie waren er 2 defecte 486DX'n gebruikt die resp. een defect coprocessor en een defecte Integer unit had. Samen konden ze dan (met iets lagere performance wel een volledige instructie set verwerken.
Zou inderdaad leuk zijn als je hem kunt underclocken naar 4.77mhz :D

[Reactie gewijzigd door Eli98 op 15 april 2018 14:58]

ik vind het jammer dat hij niet op 4.77Ghz loopt, zou toch een leuke feature zijn. Hoe dan ook, leuk special edition voor de oldschool nerds onder ons.
Moet ie natuurlijk ook overstappen op de oude instructie set op 8-bit... en 16 kleuren grafische kaart
Kan je al die "old scool" games weer draaien zoals Larrry Suit Larry :)
Oh en testdrive III natuurlijk die onbespeelbaar was op een 40 Mhz machine.

[Reactie gewijzigd door dnrb op 16 april 2018 19:18]

Ik neem aan in de CPU i.p.v. minix. :)
Want :D. Zou wel cool zijn als ze 'm dan ook leveren met een oude editie van MS-DOS :p
Daar heeft Microsoft een Windows mobile app voor. ;)
https://www.microsoft.com...s-dos-mobile/9nblgggxzdtw
Het zou mooi zijn als deze 8086 op 4 GHz zou draaien met een turbo knop naar 7 GHz. Toch mooi 1000 keer zo snel.
*1000 keer hogere kloksnelheid, klok voor klok zal deze CPU al een flink stuk sneller zijn.
Kloksnelheid != snelheid.
1000 keer: De wet van More! (of is het 1024 keer...)
Je hebt gelijk, de kloksnelheid heeft geen 1-op-1 relatie met de snelheid, daar spelen alle klokken mee (minimaal 3) en vooral de architectuur. Maar het is kloksnelheid versus kloksnelheid. Dat heeft wel degelijk een relatie met de snelheidsvergelijking gezien dat het de zelfde (basis) architectuur is.
Kloksnelheid van een moderne x86 vergelijken met de eerste werkt niet, x86 bepaalt niet de snelheid, kloksnelheid ook niet. Er zijn sinds de 8086 wel zoveel optimalisaties geweest, gevolgd door nieuwe chipdesigns en de stap naar 32 bit gevolgd door de stap naar 64 bit.
Als de 8086 op 3Ghz zou lopen en de 8700k op 1Ghz zou die alsnog tientallen zoniet honderden keren sneller zijn....
Gebruik nooit kloksnelheid om CPU's te vergelijken, dat is appels en peren vergelijken, al helemaal als het niet exact dezelfde serie is (8700k vs 8700 valt nog enigzins op kloksnelheid te vergelijken maar ook daar komt o.a. Turbo, overklokbaarheid, stroomverbruik en TDP eerst bij kijken.

(Overigens zegt de wet van Moore dat elke 2 jaar het aantal transistors in chips verdubbelt)
Zag het vanmorgen ookal op reddit voorbij komen.

Het is dus een 8700k die out of the box 100Mhz sneller is.
Met een TDP van 95W zit je ook weer bijna in de regionen van de oude Netburst als het om koeling gaat.
Maar die hadden maar 1 core ipv 6,
En een hogere single core boost. Wat ik me af vraag of intel bij deze serie ook gebruik gaat maken van Soldeer net als de Skylake-X refresh
100 mhz ?! Stock draait de 8700k 4.7 turbo op 1 core en deze 5.1 das 400mhZ meer
5.1GHz single core turbo, all cores 4,4Ghz. Schijnt -gebaseerd op leaks vanuit china- een enorm heethoofd te zijn.
Moet haast wel met die kloksnelheden inderdaad. Wel garantie van Intel dat je die snelheden ook echt haalt, vergeleken met een eigen overclock. Kan interessant zijn. Hoe dan ook je koeling op aanpassen.
dat hij ze haalt staat buiten kijf, maar hoe lang hij die snelheid kan aanhouden is weer een heel ander verhaal. ik meende me te herinneren dat ze redelijk snel beginnen throttlen, maar vind niet direct de cijfers terug (ga er van uit dat het maar een paar minuten zal zijn)
Zal ook flink afhangen van de koeling.
eventuele throttling ligt bijna helemaal aan je koelopstelling. maar er wordt dus wel gegarandeerd dat het op die kloksnelheden stabiel draait.
Ik heb er 1 draaien op 1.2 V @4500 Mhz en die blijft niet onder de 80C met een stresstest als P95 of LinX. En dat is met een grote heatsink. Lijkt er op dat delidden en liquid metal gebruiken de enige manier is om deze chips tot zijn max te OCen.
Is dat zó veel dan? Ik heb namelijk een 4790K welke ook op 4.4GHZ staat met boost tot 5.2GHZ.

dat ding van mij draait 18 graden idle en is nog nooit heter geworden dan 45 graden. Ik koel met een oude Scythe Mugen II

-- Ik moet schijnbaar even benoemen dat ik het hier niet over stresstests heb. De mijne wordt ook gauw 88 graden met wat stresstesting, maar met 'normaal gebruik' / gaming wordt het ding nooit heter dan 40 graden

[Reactie gewijzigd door babydead op 16 april 2018 15:20]

True true, maar jij hebt een Quadcore. Deze processor heeft 50% meer cores :)
18 idle, riiiiight..zit je in een koelkast?
Nee... De corsaire graphite 230T is gewoon een geweldige kast. Combineer dit met de Scythe Mugen II (De beste luchtkoeler die je kunt vinden, koelt beter dan het overgrote deel van waterkoelers tot ~100 euro) en het goede design van de 4790K komt uit op zo'n 18 graden idle in de lente. I have screenshots to prove it.

Draaiende is hij dan ook nooit hoger dan 50 graden geweest. Ik heb hem 1x zien pieken op 43 en dat was het.

Als ik nou echt ga stress-testen dan schiet hij redelijk snel naar de 90 graden (binnen 20-30 seconden) maar goed, dat hoort er natuurlijk bij... Zo moeilijk is het nou toch ook weer niet te geloven?
Jawel, want een CPU genereert warmte als hij aan staat, en 18 graden is praktisch kamertemperatuur, zo niet lager, wat haast onmogelijk is. Laat maar zien dan!

[Reactie gewijzigd door Navi op 16 april 2018 15:52]

Ik heb een screenshotje voor je. Even kijken of ik hem kan sharen via bericht want ik zou niet weten hoe ik die hier moet krijgen =P
Ik heb er eentje die 1.26V nodig heeft om stabiel op 4.7Ghz te draaien. Je hebt het over alle cores neem ik aan? Met 240rad waterkoeling en de-lidden 4790K zie ik circa 65 graden.

Heb je niet 3 van de 4 cores uit staan..?
Nope.
Ik heb natuurlijk wel speedstepping (ofzo?) aanstaan, dat hij zichzelf underclocked wanneer het niet nodig is, maar hij heeft een ingebouwde turbo-boost tot 5.2ghz dus ik zie niet in waarom ik hem zou overclocken naar 4.7... Noch waarom jij dat zou moeten doen? De mijne wordt ook niet onstabiel wanneer hij naar 5.2 klokt... Als die turbo boost gaat knallen wordt hij wel wat heter, maar deze heeft hij praktisch nooit nodig want hij is meer dan krachtig genoeg voor de meeste taken.

Er zijn veel issues geweest bij de 4790K betreft te heet draaien. Deze kwam erg veel voor in de eerdere revisies, maar ik heb een latere revisie omdat ik de mijne pas erg laat heb aangeschaft.

Zoals al aangegeven in een eerdere comment heb ik gewoon een goede airflow in mijn Corsair Graphite 230T met een Scythe Mugen II op mijn CPU.

Mijn cpu temp wanneer ik aan het werk ben ligt meestal tussen de 28-40 graden afhankelijk van het seizoen.

-- edit; kheb het even gecheckt meen dit zijn mijn huidige stats;
Mijn voltage staat op 1.2208v.
De clock staat op 4397.4MHZ
TDP op 88.0W
Mijn load is wisselend tussen de 6% en 12%
Mijn temp is 26 graden.
Mijn fan speed hangt rond de 580RPM (van de 1500 geloof ik... misschien 1000, not sure)

-- Nu is het wel zo, dat ik de corsair graphite 230T niet meer heb. Ik ben geswitched naar de NZXTH440 (Omdat deze compacter en stiller is) en sindsdien is mijn koeling zeker 5 tot 8 graden minder effectief. Dat is jammer, maar goed... de stilte is fijn en het formaat maakt het makkelijker om het ding te moven :P

Mijn videokaart is overigens wel een heethoofd (extreem zwaar overclocked R9 290) en mbt nieuwe kast gaat die lucht nergens meer heen. In mijn oude corsair werd deze lucht er meteen uitgeblazen. Die veroorzaakt geloof ik ook nogal een temp increase op dit moment, gezien deze idle rond de 40-50 graden ligt. Dit kan ik ook naar ~32 krijgen maar dan is mijn PC net een stofzuiger

[Reactie gewijzigd door babydead op 16 april 2018 15:34]

Dus hij draait op 4.4Ghz geen 5.2.. ;)

Draai maar eens een nachtje prime95 met small ftt's..

[Reactie gewijzigd door Noord27 op 16 april 2018 16:29]

Ja, ik heb al meerdere keren gezegd; 4.4ghz clock met turbo tot 5.2... Die turbo wordt automatisch ingeschakeld wanneer het nodig is. Dit is zelden nodig :P

Ik heb al eens prime95 gedraaid. Ik heb ook al toegegeven dat hij dan aardig heet word. Echter had ik het enkel over 'normaal computergedrag'. Dat stresstesten met prime95 enzo maakt van elke cpu toch een heethoofd? In dat geval moet je op een gegeven moment wel naar een extreem goede waterkoeler om hem zo ver te krijgen niet te throttlen, maar dat throttlen is bij mij in de praktijk (naar mijn weten) nog nooit gebeurd, dus ik ben wel tevreden. Voor normaal gebruik (gaming,video editing en programming) heb ik totaal geen last van temperaturen boven de 50 graden.
Nou nee alleen de bar clock Is gegarandeerd. Max turbo clocks niet. Alleen in ideale omstandigheden maar als hij dat dan niet doet kan Intel zich daar achter verschuilen (Bv betere koeling nodig)
Gaaf, lijk me heel grappig te hebben in mn nieuwe systeem! Benieuwd naar uiteindelijke beschikbaarheid en prijs.
Denk dat ik overigens niet de enige zal zijn, goeie promotie Intel-marketing.
misschien geinig om te retrofitten in een oude pc die origineel kwam met de 8086.
Het zou mooi zijn als de processor kan downclocken naar 4.77 MHz en een turbo modus van 8 MHz.
Ik zou eerder zeggen: spijtig dat deze niet standaard op 4.77GHz draait.
En dan natuurlijk ook met een turbo modus naar 8 GHz :+

Wel leuk bedacht dit, als het inderdaad een eerbetoon is. Gezien het feit dat de gros van de consumenten de link niet zal zien (als ze überhaupt al een idee hebben welk model CPU ze in hun PC hebben), gok ik dat het van de technische kant komt, en niet de marketing - en dat maakt het wat mij betreft nog leuker :)

[Reactie gewijzigd door casparvl op 15 april 2018 16:03]

4.77GHz + 8MHz. Eigenlijk wil je dan ook de game clocks laten syncen daarop, zodat je heel snel door de levels kunt heenlopen :-D
Downklokken naar 4770mhz? Hij is toch 4440mhz?
4,77MHz =/= 4,77GHz
Oh haha. Nu valt ie bij mij ook
Ha, nu snap ik hem. Het duurde eventjes .... jij verwijst naar de Intel 8068 processor uit 1976!
Was het niet zo dat de Turbo knop juist de klok snelheid lager maakte?

"The turbo button was added to many computers using CPUs faster than the original 4.77 MHz Intel 8088 used in the IBM Personal Computer. Some software titles (games in particular) used the CPU's frequency for timing, so as faster chips came out, some of these games were unplayable. To provide a layer of compatibility for these titles, the "turbo" button was added." (wikipedia)
Voor 4.77 tot 8MHz kan je wellicht beter een langzamere/zuinigere CPU overwegen, b.v. een 8086?
Lollig! in mijn HTPC zit nu nog een G3258 pentium anniversary edition cpu. Dit zou best een leuke upgrade zijn :+
Niet een heel klein beetje overkill voor dat doeleinde? Zeker gezien de monster koeling die er dan op moet ;)
Ja truedat. Is eerder vervanging voor mijn eigen 1700x, maar om die nou in mn server te moeten stoppen is ook weer zoiets.
Als je net als ik een Windows Server draait (met Windows Server OS) dan is een 6-core echt een verademing. Je kunt veel meer tegelijk doen, Plex transcodes kunnen er meer tegelijk zijn én je kunt met gemak meer virtual machines opzetten.

Ik heb er absoluut geen spijt van dat ik mijn i5 4690 vervangen heb met een hexacore processor in mijn server, hij is veel sneller nu en bovenal veel responsiever, omdat de server veel taken over meerdere cores kan verdelen nu. Stroomverbruik daarintegen is wel hoger, maar als dat geen issue is, zou ik zeker zeggen give it a try.
Ja ik zie het ook wel zitten. Alleen zit de HTPC nu in een mooi mATX kastje in de woonkamer, en als ik daar mijn 1700x met mobo voor zou willen gebruiken zal er een andere kast moeten komen. Dat moet dan allemaal wel Wife Approved worden dus esthetisch verantwoord zijn :+ :P

Daarbij is Ryzen nou niet het meest koele / zuinige platform. Dus zal er ook een goeie stille koeler op moeten.

Het zal even passen en meten zijn. De mogelijk bestaat natuurlijk ook om de de hele HTPC gewoon in mijn kantoor te plaatsten en het kijken van video's of simpele games allemaal via een Chromecast of Apple TV ofzo te doen. Wat ik niet weet is of dat deze andere clients onderhand redelijk in de buurt kunnen komen van Plex Hometheater op x86 qua functionaliteit. Het syncen van subs door subweergave te versnellen of vertragen bijvoorbeeld was destijds enkel hierin mogelijk, en niet op chromecast / ps4.
De Ryzen is een beetje warm omdat hij hoog geklokt wordt. Als je kijkt naar de serverversie (EPYC) dan zie je dat hij op een lagere clock ook erg goed presteert.
undervolt / klok is dan een mooie optie. thnx!
Voor AppleTV is Infuse als client wel een goede. Gebeurt transcoding ook clientside. Subs restncen is dan ook geen issue.
maar haakt infuse op de Plex bieb in of gewoon via samba of iets dergelijk je HDD / NAS?
Momenteel nog SMB of een ander standaard protocol, maar met versie 5.7 zou Ntive plex support ingebakken moeten zijn: https://firecore.com/forum/topic/13575

(Let niet op de datum).

5.7 staat gepland voor binnenkort. We zitten nu op 5.6.11
Deze gaat heel wat duurder zijn als die G3258 ik zou toch denken aan 450+ mits de geruchten kloppen.
Het zou mij echt niets verbazen dat er toch geen iGPU (UHD 630-gpu) in zich heeft. Dat heeft Intel ook eerder gedaan met de 655k of de i5-2550k. Ik zie dat ook niet terug. Toch wel?

[Reactie gewijzigd door XRayXI op 15 april 2018 17:48]

De 655k had zeker wel een GPU.
De 2550k had geen GPU in de zin dat die disabled was, er zat echter wel een GPU op de die. In de basis werd de 2550k geïntroduceerd om binned Sandy Bridge CPU's met een defecte GPU toch te kunnen verkopen.

Het zou onwaarschijnlijk zijn dat Intel een Coffee Lake-S CPU uitbrengt zonder GPU. Het zou ze extra geld kosten om die CPU te ontwerpen, aangezien de GPU normaal gezien in de die verweven is moeten ze dan dus een nieuwe die ontwerpen. Voor een one off anniversary edition zou dat niet kostenefficiënt zijn.
De enige reden dat het zinnig zou zijn voor Intel om een Coffee Lake-S CPU uit te brengen zonder GPU is als de yields van de geïntegreerde GPU slecht zijn, in dat geval zouden ze de defecte GPU kunnen uitschakelen en de rest van de CPU als "werkend" verkopen.

Bovendien, het socket 1151 platform is er op voorzien is dat er een GPU geïntegreerd is. Het ontbreken van de GPU op socket 1151 levert je als klant geen voordeel op. Het maakt de CPU an sich niet beter overklokbaar (de geïntegreerde GPU kun je immers ook zelf uitschakelen). En een platform zonder GPU hebben ze al met socket 2066.
Oeh leuk, mijn eerste PC had een 8086 processor.
Dat geeft m wel een hoge 'me want' factor. Leuk om een oude PS/2 kast te modden :D
PS/2, dat was toch 80386?
PS/2 was een productlijn, geen model. Model 30, type 8530-021 had bijvoorbeeld een 8086. Latere versies van de model 30 hadden een 80286. Er zijn ook nog PS/2's met een 80486 geweest.
PS/2 was in principe het hardware platform voor OS/2, en dat had een 80386 nodig voor 32 bits virtual addressing, waarvan toen al duidelijk was dat het de standaard zou worden. Om marketing redenen werden er nog 8086's onder dezelfde naam verkocht.
zelfs intel is dus al door de benummering heen en gaat weer overnieuw beginnen na 40 jaar. :+

kan iemand even een cinebench of prime95 draaien op de oude 8086 ter vergelijking? }:O

[Reactie gewijzigd door flippy op 15 april 2018 12:05]

Het staat onder andere ook al op de Wikipedia Pagina van i7 Processoren.
"This page was last edited on 14 April 2018, at 04:53."

Edit: Release date staat op wikipedia "June 8, 2018", of het terecht is laat nog op zich wachten.

[Reactie gewijzigd door Core2Quad op 15 april 2018 12:40]


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*