Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: Intel werkt aan Core F-processors zonder igpu

Intel zou van plan zijn om F-varianten van zijn recente desktopprocessors uit te brengen. De lijn processors zou geen ge´ntegreerde gpu hebben. Zo zou er van de Core i9-9900K een variant zonder grafische chip verschijnen.

De informatie is afkomstig van de Taiwanese site Gamer.com.tw. In een posting staat de lijst Core i9-9900KF, i7-9700KF, i5-9600KF, i5-9400F, i3-9350KF en i3-8100F, voorzien van de aanduiding GT0, ten teken dat de chips geen gpu hebben. Intel hanteert een GT-classificatie, van Graphics Technology, voor zijn igpu's. Zo heeft de Core i9-9900K een GT2-gpu.

Een mogelijke reden voor een eventuele komst van de desktopprocessors zonder werkzame igpu zou kunnen zijn dat Intel zo meer processors kan leveren. Intel heeft namelijk moeite voldoende processors te produceren, omdat er veel beslag op zijn 14nm-productie gelegd wordt. Intel moest steeds meer chips op 14nm produceren omdat zijn 10nm-opvolger sterke vertraging heeft opgelopen. Core-processors met defecten in het gpu-deel, zouden zo alsnog geleverd kunnen worden.

Intel heeft in de afgelopen jaren wel vaker processors zonder functionele gpu gemaakt. Zo heeft zijn enige tot nu toe op 10nm geproduceerde processor, de mobiele Core i3-8121U, geen gpu. In 2012 verscheen de Core i5-3350P voor de desktop, zonder werkzame gpu.

Door Olaf van Miltenburg

Nieuwsco÷rdinator

03-12-2018 • 09:02

163 Linkedin Google+

Reacties (163)

Wijzig sortering
Eindelijk, nooit begrepen waarom bv een i9-9900K een igp had. Geen enkel persoon die zo'n cpu koopt en die igp gebruikt.
Er zijn programma's die wel baat kunnen hebben aan de iGpu als co-processor.
Dan zijn er programma's die ervoor kunnen zorgen dat er tijdens het gebruik van je PC geswitcht kan worden tussen de iGpu en de dedicated Gpu.
Op die manier zou je juist energie kunnen besparen, maar volgens mij is dit nooit erg aangeslagen op desktops en zie je dit vooral op laptops.
Een developer die niet gamet?
Wat soort development doe jij dat je zo een processor nodig hebt, ik denk dat als je veel computing wilt je veel beter af bent met AMD 2700x, zelfs alleen voor de prijs...
True. In mijn gebruik heb ik meer aan een paar hele snelle cores dan +4 iets langzamere. Met een 4Ghz i3 zou ik maar zelden mijn xeon missen.
AMD komt in zicht, zosnel er een Supermicro/Tyan/ of een ander WS bord op de markt komt.
Ik ben helemaal team groen, maar kan het me niet veroorloven te moeten zoeken naar een issue die misschien uit de hardware of software support komt.
Nouja als fallback is het natuurlijk wel ergens handig. Mocht je gpu stuk of nog niet geleverd zijn kan je op z'n minst nog opstarten met beeld.
Zonder zware taken schakelt de IGP in en gebruik je niet je dedicated card.
Voor een potje patience of het typen van een documentje heb je niet veel grafische kracht nodig

Pas als je applicaties gebruikt die het nodig hebben, laat de pc het gebruik toe en neemt meteen je opgenomen vermogen toe.

Dus wel handig. Kosten besparen op he energie rekening
Dus wel handig. Kosten besparen op he energie rekening
En hoeveel besparing zou dat dan moeten zijn.? Peanuts vermoedelijk.
Ieder beetje helpt het klimaat.

Daarnaast. Minder warmte is minder herrie van de fans
Ieder beetje helpt het klimaat.
O, het klimaat. Het ging over de energierekening. De rest heeft nog minder prioriteit voor mij.
Waar denk je dat de energie vandaan komt om die kaarten te voeden? Gewoon uit de lucht?

En tja. Minder prioriteit. Dat zegt dan genoeg.

[Reactie gewijzigd door jqv op 3 december 2018 18:29]

DX12 kan er gebruik van maken voor net dat extra beetje power.
Ben je wel afhankelijk van de game developers. denk dat in het de praktijk met games tegen valt.
Als ik het zo lees krijg je dus een kapotte 1000 dollar chip. waarvan men het kapotte deel gewoon uitschakeld.

Dus eigenlijk zelfde resultaat als wanneer jij je IGP gewoon disabled. Dus het zal kwa verbruik, / warmte niks uit mogen maken
Idd!

Ik zou veel interesse hebben in een intel CPU zonder GPU gedeelte! Dan kan ik een high end PC met dedicated externe videokaart bouwen.

Maar dan wil ik wel een CPU waar 100% van het chipoppervlak gebruikt is voor CPU cores! Dus als deze chips gewoon dezelfde CPU's zijn met uitgeschakelde GPU dan is dit een flop :( .
Maar dan wil ik wel een CPU waar 100% van het chipoppervlak gebruikt is voor CPU cores! Dus als deze chips gewoon dezelfde CPU's zijn met uitgeschakelde GPU dan is dit een flop :( .
Maakt dat nou uit? We hebben het over vierkante millimeters, en de processor is sowieso groter dan het daadwerkelijke chip-oppervlak. Je betaalt voor de functionaliteit die je krijgt. Logica die is uitgeschakeld, zul je ook niet terugvinden in het stroomverbruik.

Als Intel een aparte lijn zou opzetten voor cpu's waarvan het gpu-gedeelte ook daadwerkelijk achterwege is gelaten, zou dat duurder zijn dan deze oplossing.
Intel heeft deze lijn toch allang? De zogenaamde HEDT lijn. Namelijk de processoren geschikt voor socket 2066 hebben zover ik weet allemaal geen gpu onboard.
Daarnaast moet intel juist eens ophouden met zoveel verschillende lijnen en versie. Hun processor lijn is zo extreem onduidelijk met nummering door elkaar heen voor verschillende chipsets en sockets. De socket 2066 processoren bieden ook nauwelijks meer voordeel tenzij je ECHT de extra cores nodig hebt. Voor gaming en voor veel grafische toepassingen zijn de extra cores echter niet super nuttig. Veel grafische toepassingen gaan allemaal richting GPU en vaak kan de onboard gpu van de consumer lijn hier OOK nog extra bij ingezet worden voor extra performance en outperformt deze de socket 2066 procs.

[Reactie gewijzigd door Rennie op 3 december 2018 11:15]

Ander groot voordeel van HEDT zijn de enorm toegenomen PCIe lanes.
Niet voor iedereen nuttig, wel voor degenen met quad GPU, veel NVMe drives en/of meerdere losse SAS controllers.
Groot? De meerwaarde van al die extra PCIe lanes begint ook steeds minder te worden aangezien de consumer variant ook steeds meer PCIe lanes krijgt. Bovendien is de groep mensen die al die PCIe lanes echt nodig heeft enorm klein en de mensen die het wel nodig hebben zijn meestal beter af om een stapje hoger te gaan dan HEDT.
Enige echte reden nu nog voor HEDT te gaan is ECC support, maar gezien AMD ECC op zijn consumer lijn Ryzen heeft zal Intel binnenkort ook gedwongen worden om ECC naar de consumer versies te brengen.
Calling it now, HEDT is dood voor 2021.
Totnutoe heb je nog steeds maar 16 lanes bij de consumer varianten. Ik heb nog niets vernomen dat dit in de toekomst weer meer gaat worden (vast wel), wil je meer lanes met Intel, dan moet je naar HEDT.
Over de meerwaarde valt te discussiŰren, maar met veel storage (NVMe, SAS controllers), 10Gbe interfaces, en een leuke highend GPU wil je echt wel meer dan 16.
Dat huidige HEDT CPU's het door de komst van Coffee Lake -R een lager bestaansrecht heeft gekregen ben ik met je eens.
AMD bied 24 lanes(intern 32tho.. 8 zijn uitgeschakeld) voor de consumer, maar het zit in de volgende config; 16 voor PCI-E, 4 voor M.2, en 4 voor de chipset. Maargoed, dit begint je al te necken op het moment dat jij meerdere NVME-M.2's wilt hebben.

ALs ik het me goed heb voor genomen heb je dus ruimte voor 1 GPU in je 16X slot en 1 NVME SSD. Nu kan het zijn dat sommige moederbord makers een 2x2 config hebben bij het plaatsen van 2 m.2 NVME's. maar vaker zie ik een M.2 sata en een m.2 NVME slot.
Dat was idd mijn punt, S2066 is meer dan alleen een hogere corecount CPU.
Met mijn 6 NVMe drives, 10Gbe NIC, 1080Ti, 1050Ti, een losse geluidskaart en een SAS controller kom ik niet echt weg met 16+4 lanes.
ik vind het zo absurd dat gewone i5 en i7's geen ecc support hebben, maar pentium en i3 dan weer wel... (enkele jaren terug tenminste, als ze het er niet terug uit gesloopt hebben ondertussen)

het moge daarmee duidelijk zijn dat het ondersteunen van ecc voor die i5 en i7's maar een kwestie van willen is en niet een technische reden, of omdat het de chips te duur zou maken, hun goedkopere chips hebben het immers.
Hier heb ik de laatste tijd ook over nagedacht. Als je de prijzen van Threadripper en Core i9 platformen vergelijkt met respectievelijk die van Epyc en Xeon, zit er niet zoveel verschil tussen. Maar de beperkte hoeveelheid geheugen die HEDT moederborden aankunnen, maken ze niet veel beter dan eenvoudigere Ryzen en Core i3/i5/i7 moederborden.

Omdat mijn voorkeur uitgaat naar AMD, wacht ik liever op een Epyc processor met een basiskloksnelheid vanaf 3 GHz dan een Threadripper die maar 128 GB aankan. Het gebrek aan geheugen in mijn oude AM2 desktop is ook de voornaamste reden om voor iets nieuws te kiezen. Maar een aankoop stel ik voorlopig uit, omdat er op het moment weer snelle ontwikkelingen op het gebied van hardware plaatsvinden en ik nu meer ge´nteresseerd ben in workstation/server systemen.
Als je nog een oude am2 bak gebruikt dan is een treadripper met 64 gb geheugen toch goed genoeg?
Ik gebruik tegenwoordig voornamelijk een HP Zbook Studio G3 met Intel Core i7-6700HQ en 32 GB geheugen in plaats van de standaard 8 GB. Voor een workstation ben ik op zoek naar iets wat veel meer dan 128 GB aan kan, omdat je altijd meer geheugen in een systeem kan doen, zolang je moederbord het aankan.

Die AM2 met 8 GB geheugen was in 2009 zo'n beetje het maximum wat een desktop platform aankon. Dat systeem is nu voor mij eigenlijk alleen een oud platform om bepaalde software op te testen.
AMD heeft al jaar en dag ECC gedaan op desktop en ik denk niet dat Intel hun beleid van de afgelopen decenia nu spontaan gaat wijzigen.

Ik lees dat Hedt zoals 1366 is dus sowieso niche markt die de stap naar xeon te cheap is.

[Reactie gewijzigd door analog_ op 3 december 2018 20:55]

Kwa hitte best veel,

de heatspreader wordt nu nl maar aan 1 kant warm want aan de andere kant zit niks wat warmte uitstoot.

Als je een koeler hebt met ehatpipes bijvoorbeeld en 1 kant wordt een stuk minder warm dan is dat veel inefficienter dan wanneer de hele heat spreader zelfde warmte krijgt.
Heb je daar enig bewijs voor?
Ik zeg dat het omgekeerd is.
De grotere chip zal meer warmte kwijt kunnen aan de heatspreader omdat silicium ook warmte geleidt.

(De heatspreader is van koper met een laagje nikkel.)
Aluminum 235 W/(m K)
Silicon 150 W/(m K)
Copper 400 W/(m K)
Nickel 91 W/(m K)
http://periodictable.com/...ermalConductivity.an.html

In geval van een kleinere chip heb je meer lucht onder de heatspreader en we weten allemaal dat stilstaande lucht een erg goede isolatie-eigenschap heeft.
Zou er daarom een gaatje in de CPU headspreader zitten?
Zodat de warme lucht mogelijk iets tussen de koelpasta vandaan kan komen?
zie:
https://linustechtips.com...a0894de01ba403652cdca.jpg
Jayz2cents zei dat die er zat vanwege dat deze cpu nu een gesoldeerde heatspreader heeft, en dat tijdens het plaatsen dat gat er moet zitten voor dat solderen. Zodat de rook/gassen eruit kunnen als het smelt en stolt.

[Reactie gewijzigd door Xfade op 3 december 2018 16:50]

Het hele deel van de spreader word echter ook gekoeld door de cooler omdat die gewoon volledig contact maakt.
Daarnaast is lucht ook makkelijker te koelen als silicon. Dikkere of meer solicon betekend dus lastigere afgifte van de temperatuur.
en hoe groter de chip des te meer van de rand contact maakt met de lucht waar je het over heb dus een kleinere chip is minder contact met de lucht en dus meer afgifte aan de spreader en minder aan de lucht.
Daarnaast zit er een rubberig laagste tegen het silicon aan dus dat isoleert iets van de afgifte aan de lucht.
Daarnaast is lucht ook makkelijker te koelen als silicon.
Lees a.u.b. eens de posts waarop je antwoord want dit is absolute onzin.
De lucht in de cpu package is haast niet te koelen i.v.m. silicium, kijk naar de waarden!
http://periodictable.com/...ermalConductivity.an.html
Punt is de lucht is ten alle tijden veel koeler als de chip/die en de die is grotendeels afgeschermd van de lucht door een rubber achtige coating. Er gaat dus al maar minimale warmte naar die lucht.
Het beetje dat de lucht dus warmer word is weer gecompenseerd door de spreader die volledig gekoeld word en dus ook de lucht die maar een paar graden gekoeld hoeft te worden ipv de 90 graden van de cpu.
Als warme lucht onder de spreader echt een probleem was geweest hadden ze er wel voor een paar cent koelpasta onder gespoten zodat er geen lucht zat...
Inderdaad. Punt is dat bij 2 chips met hetzelfde vermogen maar verschillende oppervlakte (en dezelfde architectuur en proces tech) de grootste chip koeler zal blijven. Zeker niet omgekeerd.
als de heatspeader voor de chip gebouwed wordt is hij precies op maat waardoor de full koel potential gebruikt wordt en de koeler daarop afgestemt wordt.

Nu is het zelfde als een aansteker onder een ballon houden met water. zolang je hem bij het water houd is er niks aan de hand.

[Reactie gewijzigd door Scriptkid op 3 december 2018 14:32]

Hoe weet je als gebruiker dan het verschil? Waar merk je dat aan?
Je merkt het niet direct, maar ik heb liever een 8 core CPU dan b.v. een 4-core CPU met uitgeschakelde GPU die alle twee hetzelfde chip oppervlak nodig hebben.
En wat nou als Intel die "kapotte" CPUs wel kan verkopen en daardoor de rest 20% goedkoper kan worden doordat Intel niet zoveel CPUs hoeft weg te gooien? Het verkopen van kapotte CPUs is niet van deze tijd hoor, dat werd altijd al zo gedaan. Bovendien, er is een reden waarom er CPUs uit dezelfde serie verkocht worden met verschillende kloksnelheden. Die langzamere CPUs kunnen gewoon niet sneller, maar zijn feitelijk dezelfde CPUs als de snellere. Dus die langzame CPUs zou je ook als kapot kunnen benoemen.
Dat is prima, maar niet aan mij.

Ik betaal liever wat meer aan een volledig functionele CPU waarbij 100% van het chipopp gebruikt wordt.
die alle twee hetzelfde chip oppervlak nodig hebben.
Als je dat merkt heb je wel een heeeeeeele kleine PC kast.
Je hebt liever een 8 core cpu dan een 4 core cpu?
en als hij 20% goedkoper is?
Kijk naar de x299 hedt platform en basin falls refresh. Allemaal CPU’s zonder iGPU’s. Ik gebruik zelf een 7900x met een gtx 1080 ti. En als de GPU faalt dan kan ik het gewoon aflezen van mn mobo. :*)
Dat zijn hele dure CPUs en die gebruiken het dure X299 platform.
Je zei zelf: “high end PC”. Ik weet niet of als je mainstream mobo en CPU’s gebruikt of het dan nog high end is.
Celeron CPU's zijn oorspronkelijk ook Pentium/i3/i5/i7 Cpu's waar iets mis mee is. Door de defecte onderdelen uit te schakelen kunnen de CPU's toch nog verkocht worden in plaats van dat ze deze weg moeten gooien.

Je wilt als fabrikant zo min mogelijk verlies en voor sommige toepassingen voldoet een Celeron prima.
De x299 chips hebben sowieso geen iGPU hoor
Dat is al te koop - dat zijn de Xeon-W workstation processoren.

Het grote voordeel van deze Core-F chips is dat ze van de gewone Core lijn afkomstig zijn, en dus uit massa-productie. Dat scheelt in de prijs. Die Xeon's zijn niet goedkoop. Maar goed, jij hebt ongebruikelijke wensen, dat is nooit goedkoop.
Nee want waarschijnlijk betaal je er minder voor. Indien je wel een iGPU hebt kan je die als backup inzetten als je je bios verpest hebt van je dedicated GPU bijvoorbeeld :) Indien je ervoor kiest de standaard GPU uit te schakelen en niet te experimenteren met je dedicated GPU kan dit een welkome besparing zijn?
Dus eigenlijk zelfde resultaat als wanneer jij je IGP gewoon disabled. Dus het zal kwa verbruik, / warmte niks uit mogen maken
Ik snap dat het raar voelt om een afgekeurde chip te kopen, maar als het goedkoper is en je de IGP toch niet nodig had? Een uitgeschakelde IGP genereert geen warmte, neem ik aan, dus slechter dan een met ingebouwde IGP zal het niet worden.
Ik snap dat het raar voelt om een afgekeurde chip te kopen, maar
Ik was anders best blij met mijn ZX Spectrum 48, ooit. :)
daarnaast is het verkopen van niet compleet-werkende chips ook gewoon een heel normale gang van zaken. vooral bij GPU's wordt dit al jaren gedaan, dit is vaak het verschil tussen de GTX x70 en GTX x80 van Nvidia, dezelfde architectuur en vaak ook bandbreedte, maar de kern heeft slechtere specificaties.
Het doel van Intel is om hogere productie aantallen te realiseren door het uitschakelen van de IGPU, dit betekent niet direct dat de prijs voor de consument aanzienlijk gaat dalen. Immers als je voor de beste prijs/prestatie verhouding gaat op dit moment komt Intel helemaal niet aan bod, dan ga je voor Ryzen. Dit lijkt meer een soort van poging tot damage control van Intel, en ik betwijfel of de consument hier iets aan gaat hebben. Als Intel meer CPU's wilt verkopen en zijn marktaandeel beter zou willen verdedigen, wat ik dus betwijfel, hadden ze wel water bij de wijn gedaan en zouden ze de huidige generatie onder de kostprijs verkopen. Het is niet alsof ze het niet kunnen betalen, na die jarenlange overtuigende markt-leidende positie die ze hebben gehad. Het water staat ze nog niet aan de lippen, en ik hoop voor ons allen dat dit wel gaat gebeuren waardoor ze eindelijk weer eens gaan investeren, net als Nvidia waar de rollen helaas nog steeds omgedraaid zijn, die gasten voeren ook niets uit omdat ze er wel lekker warmpjes bijzitten.

[Reactie gewijzigd door KleineJoop op 3 december 2018 22:43]

Het doel van Intel is om hogere productie aantallen te realiseren door het uitschakelen van de IGPU, dit betekent niet direct dat de prijs voor de consument aanzienlijk gaat dalen.
Dus je denkt dat ze de core F's verkopen voor exact dezelfde prijs als de Core i's? Dan koopt niemand ze toch? Al koop je een losse videokaart erbij en maak je dus geen gebruik van de IGPU, dan nog is het met het oog op wederverkoop onlogisch om voor hetzelfde geld iets te kopen wat minder functionaliteit heeft.
Immers als je voor de beste prijs/prestatie verhouding gaat op dit moment komt Intel helemaal niet aan bod, dan ga je voor Ryzen.
Dat doet er feitelijk niet toe. Genoeg consumenten die al decennia voor "Intel Inside" gaan en AMD nog altijd niet kennen. Die krijgen nu een goedkopere optie in de core F, mits ze natuurlijk sowieso al van plan waren een losse videokaart te gebruiken. Dat het door fouten van Intel komt, doet er niet toe: hun prijs is lager.
Dit lijkt meer een soort van poging tot damage control van Intel, en ik betwijfel of de consument hier iets aan gaat hebben. Als Intel meer CPU's wilt verkopen en zijn marktaandeel beter zou willen verdedigen, wat ik dus betwijfel, hadden ze wel water bij de wijn gedaan en zouden ze de huidige generatie onder de kostprijs verkopen.
Je betwijfelt of Intel z'n marktaandeel wil verdedigen en meer CPU's wil verkopen? Serieus? Zijn er bedrijven die het tegengestelde nastreven?
Nee want dan hebben ze geen kosten besparing. Hoe groter de cpu des te minder ze deze uit 1 wafer kunnnen halen.
Gezien productie capaciteit hier de reden voor is, lijkt me dat deze chips helemaal geen gpu bevatten ipv een kapotte.
Nee. Hiermee verhoog je de yield, omdat CPUs met een defect in de iGPU ook verkocht kunnen worden.
14nm zal inmiddels zodanig hoge yields hebben dat dit toch niet zo'n probleem is? Tis meer dat je met een zonder een iGPU 2x zoveel cpu's uit een wafer kan snijden, die GPU's transistors nemen enorm veel oppervlak in.
Zeker, maar als dat er zo veel zijn hadden ze dit toch jaren geleden gedaan?
Ik herinner me nog de i5 2550K, zˇnder iGPU.
De mainstream Xeon lineup had/heeft ook altijd processoren gehad die iGPU's misten.
Toen zaten ze er misschien niet zo hoog mee. Wat telt bij chips bouwen is de initiele investering in de chipmachines. Als je dan genoeg chips kan maken dan kan je ze gewoon wegdonderen (en de metalen terugwinnen). Echter, als je tegen productie-capaciteit loopt dan wil je ze wel gebruiken, anders moet je er machines of zelfs een fab bijkopen, en da's geen sinecure, om het zwak uit te drukken. Nu investeren in een 14 nm fab lijkt me ook niet echt een briljante oplossing.
klopt, maar hij zou natuurlijk iets goedkoper kunnen zijn, omdat je dezelfde chip koopt met iets minder mogelijkheden.
Het mocht een keer tijd worden, echter wordt die iGPU tegenwoordig steeds vaker gebruikt voor bepaalde compute taken, die dan sneller zijn dan als je bijvoorbeeld meer cores zou hebben.
Ik denk dat elke Nvidia/AMD kaart wel sneller is dan de iGPU van Intel en veel meer functies ondersteunen

Je bedoelt hwaccel van h265/hevc etc of?
Natuurlijk zal een dedicated NVIDIA/AMD kaart sneller zijn, als die kaart niet druk bezig is met je spel renderen...

Maar goed, hoeveel mensen streamen er? Ik in ieder geval niet.
Idd, maar als je een server hebt met weinig parallelle berekeningen, dan kan je beter je siliconbudget gebruiken voor meer cache of cores.
Klopt inderdaad,
maar wat ik me dan afvraag is of dit niet gewoon afdankertjes zijn waarvan de igpu niet werkt.

Het kan goed zijn dat er enkele grote afnemers het graag zouden willen hebben voor grotere configuraties,
want om enkele productielijnen zo op te gaan zetten lijkt me te ver gaan. Voor de consumentenmarkt lijkt me te klein, voor reguliere desktop lijkt me ook weinig interessant, maar in grotere servers eventueel ondersteunt door serieuzere gpgpu zou het een oplossing kunnen zijn.
Ik denk dat er weinig servers zijn waar 'K' varianten van de Core serie in zitten. De meeste servers draaien de Xeon server variant van een die (waarvan dan varianten met en zonder iGPU bestaan).
Betekend dat dat je altijd een grafische kaart nodig hebt en dat je dus geen monitor kan aansluiten als je alleen zo'n CPU hebt? Of kan je nog wel een monitor gebruik alleen zonder 3D versnelling?
Dan kan je helemaal geen monitor meer aansluiten zonder dedicated GPU inderdaad
Ok, ik dacht misschien handig als ultra-cheape optie voor een server maar dan kan je alleen nog maar headless installeren wat wel echt tricky kan zijn.
Ik heb mijn server ge´nstalleerd met een el-cheapo grafisch kaartje en deze na de installatie eruit gerukt.
Wel even in de bios instellen dat deze door moet starten indien er geen grafische kaart aanwezig is.
Scheelde toch weer 10 Watt verbruik.
Indien je dan toch een grafische kaart nodig mocht hebben, prik je 'm er gewoon weer in.

Edit:
Mijn server bestaat gewoon uit een normaal moederbord, dus geen serverhardware

[Reactie gewijzigd door misterbennie op 3 december 2018 11:29]

Bijna elk servermobo heeft een 2D videokaart er op gesoldeerd.
Deze proc daar en tegen is bedoeld om mee te gamen/3D bewerking enz. Zodat de extra ruimte qua verbruik die dit opleverd gebruikt kan worden voor meer CPU kracht. En je vanzelfsprekend een externe GPU installeert.
Bijna elk servermobo ja, maar mijn server heeft geen server moederbord. Bij mij hangt er ook een gt210 in alleen voor die zeldzame momenten dat ik eens wil kijken.
Opzich ook een optie om hem eruit te trekken, maar lig er nu ook weer niet wakker van.

[Reactie gewijzigd door Xm0ur3r op 3 december 2018 11:23]

Als de firmware niet zoveel features miste, zou je gewoon alles via een (USB) serial console moeten kunnen doen. Ik weet echt niet waar het idee vandaan komt, dat je een grafische chip nodig hebt voor het installeren van een computer, of het nou een desktop ingezet als server of een echte server betreft.
Zoals je al zegt: "Als de firmware niet zoveel features miste"
Van mij hoeft die grafische kaart dan ook niet perse.

Op server hardware kun je de console redirecten naar een seriŰle port.
En daarna kun je headless installeren.

Voor zover ik weet mist elk normaal moederbord deze functionaliteit.
Waar zit dat geheugen dan is dat geintregeert op de cpu of extern op het moederbord.Ik bedoel het gpu geheugen?Ik heb altijd een externe videokaart gehad.Hadden ze dat beter niet met een xeon processor kunnen doen?

[Reactie gewijzigd door rjmno1 op 3 december 2018 12:48]

Of misschien nu dat Intel behoorlijke productietekorten heeft staat het ze toe de CPU's waarbij het GPU gedeelte mislukt is alsnog te verkopen? Maar goed ook het weglaten waardoor de dies kleiner worden en er een hogere yield uit een wafer wordt gehaald zou geen verkeerde stap zijn.
Hele simpele manier voor headless install (linux)

Men koppelt alle schijven van de workstation af. Koppelt enkel schijf aan van toekomstige server.
Installer distro, zet een static IP. Installeer SSH server, maak SSH keys aan.
Haal huidige netwerk adapter(bijv eepro100) weg uit etc/modprobe.conf
(Wil anders wel eens een conflict opleveren aangezien het een bepaalde netwerk adapter verwacht, die enkel aanwezig was op de workstation)

Sluit systeem af

Plaats schijf met verse linux server disto installatie in server.

Tot nu toe werkt dit altijd prima! Vind ik een stuk gemakkelijker dan een preseed aan te maken in combinatie met netinstaller image

[Reactie gewijzigd door osmosis op 3 december 2018 10:20]

cloud-init werkt ook prima tegenwoordig. Gewoon een bestandje met je initiele config aanleveren.
Die gedachtengang is niet helemaal juist, alles hangt af van de bestemming van je Server. Soms is de GPU in de server juist het belangrijkste onderdeel om berekeningen te versnellen zoals neurale netwerken, 3D rendering, fotogrammetrie of berekeningen voor wetenschappelijk onderzoek bvb BOINC platformen.
In die gevallen gebruik je een dedicated GPU, of een GPU gebaseerde accelerator, niet de ingebouwde gpu van een CPU.
Een monitor of Řberhaupt beeldscherm van bijvoorbeeld een laptop heeft altijd een gpu nodig of dit nou een igpu is of een externe, interne enz. Enz.
Heel strikt gezien is dat niet nodig, vroeger waren er zat computers die geen GPU bevatten, en de graphics volledig met de CPU maakten. Maar tegenwoordig komt het daar wel op neer ja :P
Heb je daar een voorbeeld van? Zelf actief sinds de 286 tijd, maar bovenstaande nooit tegen gekomen?
Daar had je in die tijd toch doorgaans insteekkaarten voor? De Hercules voor monochroom beeld, CGA voor vier kleuren, EGA voor 16 en VGA voor 256. Eerst 8-bit ISA kaarten, later 16 bits, Vesa Local Bus, PCI... Overigens was het begrip GPU daar nog niet echt van toepassing.

[Reactie gewijzigd door DonDaaf op 3 december 2018 10:01]

Tuurlijk wel. Een GPU betekent niets meer dan Graphics Processing Unit. Zelfs al is het slechts Hercules, dan nog moeten de graphics afgehandeld worden :-)
Volgens mij was tekst het enige renderen dat de Hercules kon. In 'Graphics mode' hadden de Hercules-kaarten een stuk geheugen wat gevuld diende te worden door de CPU. De kaart kon alleen maar het geheugen uitlezen en op het scherm toveren.
Klopt. Die kaarten hadden inderdaad geen GPU, dat wil zeggen dat er geen code op een embedded processor draaide. Alle logica zat in de driver die op de CPU draaide. (voor zover je een driver nodig had).

Dat wil niet zeggen dat er helemaal geen chip op die kaarten zat - natuurlijk was er wel enige intelligentie nodig. Maar dat was allemaal hardcoded.
CGA voor vier kleuren, EGA voor 16 en VGA voor 256
Dat is een beetje kort door de bocht heh ;)
CGA kan ook in 16 Úchte kleuren tegelijk en EGA kan ook 256 kleuren tegelijk, maar dan op extreem lage resolutie (160x100). Er waren wel degelijk games die hier gebruik van maakten. CGA had daarnaast een truukje om op een TV te lijken alsof er 16 kleuren waren, maar dat geeft een wat blurry beeld, en dat is iets heel anders dan de 16 echte kleuren op lage resolutie. En VGA is idd 256 kleuren, maar dan op een iets minder lage resolutie van maarliefst 320x200 :D - Ook die kun je dus 16 kleuren noemen.
De homecomputers hadden zonder uitzondering een GPU. Sowieso was er natuurlijk een chip of meer nodig voor de digitaal -> analoog conversie. Destijds heette dat gewoon een Video Chip overigens.

https://en.wikipedia.org/wiki/MOS_Technology_VIC-II

Mijn Philips VG8235 had overigens al een 512 / 212 pixel scherm met 16 (configureerbare) of 512 kleuren. Ik moest wel een traantje laten toen ik naar een PC moest overschakelen met K-met-peren graphics en geluid. Maar ja, 3,5 MHz, 64 KiB adresseerbaar en een niet modulaire structuur zonder page swapping / DMA was niet echt houdbaar op de lange termijn.

[Reactie gewijzigd door uiltje op 3 december 2018 15:07]

Er zat nog steeds een videokaart in. Dat deze geen verdere hardware acceleratie uitvoerde is een ander verhaal. De term GPU bestond toen natuurlijk niet, dat is gewoon een nvidia marketingding.
Een chip die een beeldscherm aanstuurt is nog geen videokaart natuurlijk. In een Atari 2600 werden de graphics getekend (drawn) door de CPU (als ik me goed herinner). Die handlede misschien niet het genereren van het signaal naar de monitor, maar dat doet een GPU chip ook niet.
Ik ben niet bekend met Atari maar Wikipedia leert me dat in de 2600 naast een CPU een TIA zat, die geluid en graphics afhandelde:

https://en.m.wikipedia.org/wiki/Television_Interface_Adaptor

[Reactie gewijzigd door BitProcessor op 3 december 2018 10:03]

Die tekende niet de graphics volgens mij, dat deed de CPU. De TIA deed verder de afhandeling om het bij het beeldscherm te krijgen. Ik begin nu wel te twijfelen, moet me er vanavond nog maar eens over inlezen :P
Het is nog steeds niet nodig. Sinds Windows 8 is software acceleratie zoals het vroeger was, verleden tijd. Maar sinds Windows 8 kan het alle rendering wel weer in software uitvoeren, wat weer heel wat anders is dan het oude 2d software renderen van Windows 7 en er voor, want het werkt nu ook voor 3d. Als je CPU krachtig genoeg is kun je er zelfs mee gamen. Al heb je een core of 10 nodig om 1080p video op normale snelheid te kunnen afspelen.

Je hebt alleen een video out nodig dat pixels op een beeld kan toveren.
Dat is natuurlijk onzin, dat het nieuw is in Windows 8. Sterker nog, Windows NT 3.5 had al een 3D software driver (toen nog OpenGL).
Vroegah was 3d rendering allemaal in software, pas toen dedicated GPU's opkwamen werd dat gescheiden.

Dat is een aparte driver die dat regelde. Nu gaat alle rendering automatisch over naar software als er een GPU ontbreekt of deze uitvalt. Het is geen driver, het is een fallback van WDDM.

Het is nu 1 geheel. Windows 7 en prior hadden aparte renderers, een software en hardware renderer.
Dat klopt, dan kun je geen monitor meer aansluiten zonder GPU.
soms, een moederbord kan zelf ook een simpele gpu aan boord hebben. Dit was jaren terug nog heel normaal zelfs.
2D-only GPU's bestaan tegenwoordig niet meer ;)
Geen monitor. Maar lijkt me misschien niet gek voor een server of homelab, dan gebruik je uiteindelijk toch geen scherm, of voor een game bak, want dan gebruik je geen IGP.
Is dat dan niet gewoon een Xeon CPU?

Ik was in de veronderstelling dat Xeon een I3/5/7 proc zonder GPU is?
Er zijn Xeons met ingebouwde GPU, 100% zeker weten doe ik het niet maar dit gaat om modelnummers die op 5 eindigen.
Dat was in voorgaande generaties idd het geval, ze hebben het nu wat makkelijker gemaakt op 1151.

Xeon E-2146G (graphics)
Xeon E-2136 (no graphics)

Maar nee, dat maakt het dan geen Xeon, die chipsets ondersteunen ECC en allerlei andere server specifieke zaken.
Een i3-8300 ondersteund ook ECC.. wat is er zo bijzonder aan Xeon ?
Kun je zien in de vergelijker van Intel
wist je dat in ieder geval van de 8e en 9e generatie geen enkele i5, i7 of i9 ECC ondersteunt? Leuk natuurlijk dat er 6 i3 processors uit de 8e generatie wel ECC ondersteunen, maar dat is voor vrijwel alle servers niet de meest interessante keuze.
Niks, het is is allemaal gebaseerd op Intel's volledig op interne concurrentie gerichte product lineup. Het is een kwestie van een fuse aan of uit zetten in de chipset, kost ze geen drol. Zie bijvoorbeeld de prijs van de Xeon W lineup vs de I9's op hetzelfde socket, ze zeggen gewoon, je wil ecc, dus je betaald meer.
Cores, cache geheugen, virtualisatie-opties, ecc.
Ja op Xeon Scalable/E5 etc, we hadden het over Xeon-E/E3 dat zijn namelijk de enige die wel eens met een igpu komen
In zelfbouw machines snap ik een iGPU sowieso niet. In een laptop snap ik het wel, daar heb je vaak geen dedicated GPU in zitten. Maar vrijwel elke zelfbouw PC die ik bouw, komt een GPU in te zitten.. Een fatsoenlijke.

En ja, ik snap dat het voor OEM's makkelijk is, maar Intel hoeft toch niet *elke* CPU uit te voeren met een iGPU..
Niet iedereen die aan zelfbouw doet maakt een gaming machine he...
Ik heb het ook niet over een gaming machine...
Ik heb over de jaren al heel wat zelfbouw systemen gemaakt (thuisservers en desktops), en al tien jaar zit daar geen GPU meer in.
U hoeft toch geen unlocked processor te gebruiken dan, je kan beter gewoon de locked gebruiken voor builds die geen dedicated videokaart hebben. AMD is voor echte workload al beter met threadripper als een i9 9900k en de 2700x is dan weer heel wat goedkoper en beter voor multithreaded tasks.
Intel misschien toch Linus zijn laatste gezien? :)
Hehe toevallig gisteren gekeken, Linus heeft wel gelijk.
Maargoed van mij mogen ze zo doorgaan zodat AMD een kleine inhaalslag maakt, is goed voor de concurrentie.
Tja het probleem is dat voor mij als gaming prio 1 pc gebruiker intel nog steeds ver voor op mijn lijstje staat.

Dus van die hele inhaalslag van AMD merk ik helemaal niks behalve dat de nieuwe intel 9900k peperduur is daar waar ik liever een 6 core 5ghz gezien had dan een 550 euro kostende 8 core.
Misschien dat de volgende generaties van de 2 wat duidelijkheid geven maar vooralsnog stel ik mijn nieuwe build uit en denk ik dat mijn 3770k maar een watercoolertje krijgt voor een paar honderd mhz meer.

Ik hoop dat deze 9900KF gewoon 150 euro goedkoper is doordat ze 35% silicon besparen anders kan ik niet anders dan een compromis maken en voor amd gaan en dan maar een duurdere gpu kopen wat me op de lange termijn wel meer kost omdat de cpu en gpu ook weer eerder vervangen moeten worden.
Terug naar originele i7 9xx / xeon 56xx serie dus! Nu nog fully unlocked a-la x58 playform unlocked multiplier en baseclocks
De K-cpu's zijn altijd unlocked?
Hij bedoeld de rest ook
Eigenlijk gek dat ze dat nu pas weer zijn gaan doen, je koopt mijns inziens geen high end CPU en dan geen GPU.

Verschil in prijs zal wel klein moeten zijn als ze niet willen dat die 8 core gelijk op is.
Inderdaad, want iedereen die een high-end CPU koopt heeft een (high-end) GPU nodig... Dat is uiteraard de enige manier waarop je een high-end CPU kunt gebruiken... :+

[Reactie gewijzigd door DiaZ_1986 op 3 december 2018 10:08]

Waarom is er eigenlijk voor de suffix F gekozen in plaats van P? Deze stond vroeger al voor het ontbreken van een iGPU dus het had Intel’s gekke naamgeving toch een beetje logischer gemaakt :)
De F van fucked up, of fabricagefout.
omdat er bij een P processor geen IGPU aanwezig is, en in dit geval de IGPU uitgeschakeld wordt.
Ik hoop toch echt dat de gpu gewoon compleet niet aanwezig is.

-Minder hitte absorptie door nutteloze silicon.
-Minder silicon betekend goedkoper om te produceren iets dat intel hard nodig heeft.

En als er defecten zijn aan cores kunnen ze dechips nog steeds verkopen als 6 of 4 core.

Een chip net uitgeschakelde igpu zou ik waarschijnlijk niet kopen omdat je wel de nadelen heb maar geen voordelen.
als hij 20% goedkoper is, heb je daar je voordeel te pakken. Ik snap best dat Intel erover nadenkt de chips waar een foutje in de GPU zit alsnog te kunnen verkopen. Waarom al die chips weggooien? Dat is toch pure geldverspilling? Als je al een CPU hebt met kapotte GPU is het natuurlijk goedkoper om die chip met uitgeschakelde GPU te verkopen dan een speciale chip te ontwikkelen en maken waar die GPU niet opzit. Je kunt beide doen natuurlijk, dat wel. Maar omdat er hoe dan ook behoefte is voor veel klanten om wel een GPU te hebben, worden die chips gebakken, en dus komen daar ook chips uitrollen waar de GPU mislukt is.

Daarnaast snap ik de wens voor een CPU waar helemaal geen GPU inzit. Uiteraard. Maar dat kan hier los van staan natuurlijk.

[Reactie gewijzigd door Arokh op 3 december 2018 19:48]


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True