Intel-site toont eerste details van Core i7 8809G-processor met Vega-gpu

Intel heeft een pagina voor overklokkers online gezet, waarop ook details te zien zijn van zijn eerste processor met AMD Vega-gpu. Het is een Core i7 in de 8000-serie met hyperthreading en vier kernen, waarmee het om een Kaby Lake-cpu lijkt te gaan.

Uit de vermelding op de Indiase Intel-site is verder op te maken dat de Core i7-8809G een kloksnelheid van 3,1GHz heeft en beschikt over 8MB L3-cache. Daarnaast vermeldt de site een 'target package tdp' van 100W en is er ondersteuning voor ddr4-2400-geheugen. De genoemde gpu is van het type Vega RX M GH en is aanwezig naast geïntegreerde Intel-graphics in de vorm van een HD 630. De site geeft geen verdere informatie, bijvoorbeeld over het aantal aanwezige compute units, en toont een 404-pagina als de processor wordt geselecteerd.

Ook is er geen informatie over het aanwezige hbm2-geheugen, dat Intel bij de bekendmaking van de samenwerking met AMD in november noemde. De timing van de publicatie van de pagina doet vermoeden dat Intel de ontbrekende informatie over de processor tijdens de CES-beurs bekend wil maken. Die beurs vindt volgende week plaats.

Eerder verschenen er al foto's online van een prototype moederbord met daarop de package met Intel-processor en AMD-gpu.

intel 8809G

Door Sander van Voorst

Nieuwsredacteur

02-01-2018 • 08:29

58

Reacties (58)

58
58
26
4
1
30
Wijzig sortering
"Ook is er geen informatie over het aanwezige hbm2-geheugen"
Het schijnt 4 GByte HBM2 te zijn.

En de andere versies van de Processor zijn:

The 8809G is currently the fastest known AMD & Intel solution. We also know about 8705G and 8706G, which are also part of Core i7 series. They vary in core frequencies and a number of active Vega Compute Units.

Intel(R) Core(TM) i7-8809G CPU
Intel(R) Core(TM) i7-8705G CPU
Intel(R) Core(TM) i7-8706G CPU
Vraag mij af is video ram of is shared system ram gezien DDR4 support lijkt het mij toch om video ram te gaan.
Het is in 1 chip allemaal samen gebakken.
De G staat voor grafisch.
Heel erg cool zo'n intel met superkrachtige Igpu. Een amd vega niet te energiegulzig is.
Vega is heel energiezuinig... op lage voltages. Vandaar dat "undervolting" van Vega 56 en 64 een common practice is, mensen halen zelfde of zelfs nog meer performantie uit de kaart tegen lager stroomverbruik.

Probleem is dat de Vega kaarten by default eigenlijk veel te ver geöverclocked zijn om te kunnen concurreren met de GTX 1080. En om die overclock te ondersteunen heeft AMD vanuit de fabriek een veel te hoog voltage op de core gezet, waardoor het totale stroomverbruik ook veel te hoog is. Dit kan je zelf corrigeren door te undervolten, maar vergt wat trial and error natuurlijk.
Vega is heel energiezuinig... op lage voltages.
En met minder cu's, kijk maar naar het verschil tussen 56 en 64
Nog los daarvan, de NVidea chips zijn losstaande elementen die een eigen plek op het moederbord die eigen voeding en eigen koeling vereisen. Ik heb daar persoonlijk liever een batterij en ook bij Microsoft en Apple zien we steed meer batterij en steeds minder plek voor de rest (surface, 12" macbook respectievelijk).
Echt krachtig zullen deze Vega GPUs niet zijn. Ze zullen wel heel wat beter dan een Intel HD zijn maar verwacht niet dat je hier de nieuwste releases op zal kunnen spelen.

Ik denk zelf dat deze Vega GPUs op het niveau van een GT 1030 of GTX 1050 zullen gaan zitten.

Maar alsnog het is een laptop GPU dus dat zijn best wel redelijke prestaties.
Ik denk dat we voor deze C+GPU meer aan NUCs enzo moeten denken. Voor een ultrabook zuigt deze teveel stroom en voor een gaming laptop is hij waarschijnlijk niet krachtig genoeg. Maar voor productivity/eSports NUCs zou hij precies goed kunnen zijn.

Een waardig opvolger van de Skull Canyon bijvoorbeeld? Met wat goede compute drivers en support ook voor andere zaken geschikt?
Dit lijkt mij ietjes goedkoper dan cpu + losse gpu voor game laptop. En dan mag het ook iets minder presteren dan losse mobile gpu. Het vult gat tussen losse mobile GPU en igpu.
Met ook prijs wat in dat gat valt.
Voor NuC mag het wat meer TDP trekken.
Komen dan ook uit in paar flavors.
Als hij het niveau van een GTX1050 haalt ben ik verkocht hoor. Heb in mijn huidige laptop een 2GB GTX1050 zitten. Ik kan dan wel het meeste niet op ultra spelen, maar alle huidige games draaien er prima op hoor. Perfect voor LANnetjes en dergelijke. :)
Als hij het niveau van een GTX1050 haalt ben ik verkocht hoor.
Het zou heel raar zijn als hij dat niet doet. Als de package in z'n geheel echt 100W verstookt, dan blijft er pak'mbeet 70W over voor enkel de GPU + HBM, en daarmee zou hij beter moeten presteren dan een 1050 Ti. Volgens HWinfo64 trekt m'n hele GTX 1060 kaart ongeveer 100W bij 100% belasting. Op 60W haal ik nog steeds 85% van de oorspronkelijke prestaties, maar dat is dus voor de hele kaart. Als enkel de GPU + HBM 60/70W ter beschikking krijgen moet daar dus meer performance voor te krijgen zijn dan de GTX 1060 op 60W.

Als die 100W realistisch is, dan presteert deze Vega GPU denk ik heel erg gelijkaardig als een GTX 1060.

[Reactie gewijzigd door Dorstlesser op 23 juli 2024 04:12]

dit is geen mobile chip eh. Processor zou zomaar 65 watt tdp kunnen hebben.
TDP kan je afleiden aan de gekozen base klok van 3.1Ghz
Dan kijken naar gelijkwaardige geklokte kabylake.
Hmm, er was toch eerder aangekondigd dat die Intel-AMD combinaties alleen voor laptops waren? Voor desktops heeft die ultradunne formfactor niet zoveel zin, me dunkt..
Verwacht maar niet dat hij net zo snel zou wezen als de Geforce GTX 1060, ik denk dat hij zelfs aardig stuk langzamer is dan de Geforce GTX 1050.

Maar we zullen wel zien welke snelheden hij krijgt, maar verwacht geen wonderen.
Waar baseer je dat dan op? Een Vega GPU die 60W verstookt zou ongeveer in die buurt moeten zitten. Als hij in de praktijk minder verbruikt gaat dat uiteraard niet op, maar bij het gemelde verbruik is dit toch logisch?
omdat het nog geen een keer gebeurd is dat een IGPU net zo snel was als een GPU die €120,- of duurder is/was.

Maar ja het zal best leuk wezen als deze IGPU net zo snel is als een Geforce GTX 1050 (Ti), ik zelf ga voor de MSI GeForce GTX 1050 TI 4GT LP als mijn KFA2 GeForce GTX 950 2GB OC LP het niet meer trekt in mijn Mini Media/Console PC.
Het is ook geen iGPU zoals Intels HD graphics die op dezelfde chip is gebakken en samen met de CPU in één socket zit. Dit is een aparte chip in z'n eigen socket die door een interconnect van Intel RAM kan delen met de CPU. Het is in feite dus gewoon een losse (mobiele) GPU, geen iGPU.

Daarbij is er ook nog nooit een iGPU geweest met een TDP van 60W. Intels iGPUs trekken maximaal 20W, eerder 15W.

[Reactie gewijzigd door Dorstlesser op 23 juli 2024 04:12]

Hij zit op de zelfde printplaatje waar de CPU op zit en in de zelfde socket dus, dus voor mij is het dan gewoon een iGPU.
In een laptop zit de GPU altijd in dezelfde printplaat als de CPU, ook als hij in een aparte socket zit en als het een losse GPU is, dus dat is geen criterium voor een iGPU. Een iGPU zit op hetzelfde stuk silicium en dat is hier niet het geval.

En hoe je het noemt maakt niet uit voor de prestaties. Dit is een 60W GPU en we weten hoe die presteren.

[Reactie gewijzigd door Dorstlesser op 23 juli 2024 04:12]

Nee geen idee hoe een 60w GPU presteert, en jij ook niet, 60w zecht helemaal niks.

En als we gaan bij jou logica, is een Geforce GTX 1050 sneller want die gebruikt 75w, en dat betekent dat hij langzamer is dan een Geforce GTX 1050 en dus dan niet bijzonders is aangezien een Geforce GTX 1050 het minimale is om lekker te gamen, en een AMD Radeon RX 550 gebruikt 50w en een AMD Radeon RX 560 gebruikt 90w, dus dan is hij bij jou logica ongeveer net zo snel als een Radeon RX 550, en die is weer een aardig stuk langzamer dan een Geforce GTX 1050.

https://youtube.com/watch?v=jO8ylaxwdT4

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 04:12]

Nee geen idee hoe een 60w GPU presteert, en jij ook niet, 60w zecht helemaal niks.
Hoezo ik ook niet? Je kan het meten en er zijn benchmarks voor hele kaarten, al zijn die lastig te interpreteren.
En als we gaan bij jou logica, is een Geforce GTX 1050 sneller want die gebruikt 75w....
Ik weet niet hoe je aan die waarden komt maar mijn RX 560 (enkel GPU) trekt 50W onder maximale belasting onder fabrieksinstellingen. M'n GTX 1060 (hele kaart) trekt 60W bij 85% van z'n kloksnelheid en 100% belasting. Een Vega GPU die 60W verstookt zal daar ergens tussenin hangen; dichter bij de RX 560 in het slechtste geval en dichter bij de GTX 1060 in het beste geval. Zo moeilijk is het niet.
Dat is onzin, de totale wattage wat een Radeon RX 560 kan vragen is 80w (ja heb per ongeluk 90w neergezet), weet niet hoe jij bij 50w komt.

http://www.guru3d.com/new...njects-radeon-rx-560.html

En zo als je kan lezen op AMD hun website zit een Radeon RX 560:
Typical Board Power (Desktop) 60-80 W
https://www.amd.com/en/products/graphics/radeon-rx-560

Maar we kunnen pas wat zeggen als hij (Core i7 8809G) uit komt, nu is het allemaal gissen hoe snel de GPU is op de CPU.

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 04:12]

Dat is onzin, de totale wattage wat een Radeon RX 560 kan vragen is 80w (ja heb per ongeluk 90w neergezet), weet niet hoe jij bij 50w komt...... En zo als je kan lezen op AMD hun website zit een Radeon RX 560: TBP = 60-80W
Zoals ik al zei, 50W is de chip, niet hele kaart, dus niet de TBP.
Maar we kunnen pas wat zeggen als hij (Core i7 8809G) uit komt, nu is het allemaal gissen hoe snel de GPU is op de CPU.
Inderdaad, maar als die TDP klopt, dan presteert hij pak'mbeet zoals een RX570. Gissen, maar niet blind gissen. We zullen het zien.
Nee geloof daar helemaal niks van dat hij net zo snel zou wezen als een Radeon RX 570, VEEL eerder een Radeon RX 550, maar dat is allemaal gissen wat we nu doen, we zullen wel zien.
Dan mag er ook een desktop versie van uitgebracht worden 😊
Dan is de vraag of dat op een bestaande socket past, het is kleiner dan een losse dedicated GPU maar het zit wel op een aparte chip met een eigen geheugenstack.
Socket? Goede kans dat Intel dit soort CPU's in hoog-geïntegreerde systemen gaat gebruiken. In hun NUC's zie je al dat ze geen socket meer gebruiken maar de CPU vastsolderen. Dat zou hierbij ook best kunnen gebeuren.
Een vastgesoldeerde CPU zit nog steeds in een socket hoor.
De meeste mensen bedoelen met socket dat plastic ding. En nee, zonder socket kan ook. Net zoals je ram recht op de dimm printplaat zit
Ja dat klopt inderdaad. Ik denk bij 'socket' vaak meer aan een set specificaties voor alle i/o en stroomtoevoer etc dan aan een fysieke plug omdat ook bij systemen met vastgesoldeerde CPUs nog wel over sockets wordt gesproken. Ik geef toe, het is een beetje muggeziften.
Nah, Vega is niet iets voor de low-end. Ook is daar gewoon geen markt the vinden iedereen die een GPU nodig hebt heeft wel een GTX of RX kaart. Verder de niet power users die kunnen prima vooruit met hun Intel HD.

Geef my maar een Vega 128 ofzo :P
Vega is GPU generatie.
Low tot high-end is meer bepaald door chip grote en dus het aantal van elk logic.
CU Rops en TMU etc. al kan er wel generaties gemix worden.
Klinken als Yoda, jij doet :9
Wat bedoelde je precies te zeggen?
In die intel processor zitten 2 igpus. Intel hd 630 maar ook een amd rx vega en ikzelf vind het een goede prestatie. Zijn er benchmarks van de verborgen vega?
Deze vega GPU zit niet in de processor zelf, waardoor het geen iGPU is maar een dedicated gpu, de banchmarks zullen waarschijnlijk niet lang op zich laten wachten.
Deze vega GPU zit niet in de processor zelf
Dat ligt natuurlijk heel sterk aan je definitie....

De GPU is niet on-die, hij is wel on-package. Intel stelt dus dat de GPU in de processor zit.

Maar ik ben met je eens dat dit wel een hele lastige wordt om zowel technisch als commercieel juist aan te duiden....
Vroeger zat de IGP op het moederboard dus ik denk dat die term nog steeds correct is.

https://en.wikipedia.org/..._unit#Integrated_graphics

Wel apart dat er ook nog een IGP van Intel op zit.
Vroeger zat de IGP op het moederboard dus ik denk dat die term nog steeds correct is.
Niet helemaal....
Vroeger zat de IGP in de chipset; on-die bij de Northbridge. Dan praat je dus ook nogsteeds over een écht geïntegreerde GPU (de "I" van IGP).

Nu is het een aparte chip op dezelfde package maar niet op dezelfde chip. En dat is technisch gezien een heel ander verhaal. Voor de gebruiker not so much; het is nogsteeds "dat ding wat ik in de socket stop".

En daardoor ook helemaal niet raar dat er nog een Intel IGP op zit. Het is tenslotte gewoon een normale I3 waar een AMD VEGA chip en wat HBM2 chips bij gezet worden en HT ingeschakeld wordt.
Het is wel mooi om te zien. On-die geeft natuurlijk wel voordelen wat betreft schaalgrootte. Een “volledige” vega GPU naast de IGP op dezelfde package bied mogelijkheden voor laptops en SFF PC’s met toch redelijke rekenkracht.
Anoniem: 776095 @Ludwig0052 januari 2018 09:50
Is het wel een iGPU? Er zit ook een UHD630 in, dus is het een SoC met een losse GPU in dezelfde chip. Is de vega M GPU dan een externe iGPU?
Nou per definitie kan een geïntegreerde CPU natuurlijk niet extern zijn. Dan issie immers niet meer geïntegreerd ;).

Het lijkt meer een on-die 2nd tier te zijn om ook small size form factors van discrete graphics te kunnen voorzien zonder daarbij een enorme unit aan koeling nodig te hebben. Het totale TDP is een stuk lager dan bij losse componenten, maar doordat Vega goed presteerd bij een lagere spanning lijken de prestaties vooralsnog vrij hoog te worden voor een dergelijk pakket.
Ik denk dat de CPU op die 1 zit samen met IHDG630 en op het zelfde PCB nog een die met Vega GPU. Die twee dies zijn verbonden met een inter-connect (PCIE, DMI, QPI Infinity Fabric).
Ja het is ook een igpu.
Een gpu op mobo werd al als iGPU labelt.
Als je dgpu als uitbreiding optioneel erbij kan zetten. Dus g-kaart
De package is de CPU.
Zo niet dan is P4 dual core & Threadripper dual CPU ? Gezien het twee Die heeft.
Epyc quad CPU.

SoC is CPU package gesoldeerd op mobo. Daarmee is de iGPU Vega geintegreerd in CPU cq Soc component.
Als de gpu appart gesoldeerd op de mobo zit is het geen onderdeel van Soc of CPU maar igpu op mobo.

Maar is het ook een SoC? Soc is CPU package met mobo chips geintergreerd. Geen idee of dat ook zo is.
Vega is best zuinig op lagere clocks
Interessant! Ik ben benieuwd hoe de vega gpu gaat presteren in dit geval, de dedicated vega kaarten zijn nou niet bepaald zuinig. Met een tdp van maar 100W zal het een uitdaging zijn om hier goede performance uit te slepen.
Anoniem: 58485 @J0mcd2 januari 2018 08:58
De VEGA is juist efficient als je deze wat omlaag gaat klokken. Dat is het mooie aan die chip. Dat ie in reviews zoals de 56 of 64 met een behoorlijk hoog verbruik uit de tests komt heeft eerder te maken met dat de chip moest concurreren met de 1080 van Nvidia. Dan ontga je de beste prestatie / TDP verhouding en merk je al snel dat het verbruik gewoon explosief stijgt.

Apart dat ze dat combineren met een 630 IGP van Intel tesamen met een Vega. Een vega kan toch ook bij 2D / Idle veel minder verbruiken?

Denk ook dat het met proprietary rights heeft te maken. Intel heeft een GPU engineer bij AMD weggekaapt en daar moest vast en zeker iets voor terug komen.

[Reactie gewijzigd door Anoniem: 58485 op 23 juli 2024 04:12]

Kan directx 12 hier wat mee, als je ook een losse videokaart hebt?, dus GPU + iGPU
Als de developer codeerd om gebruik van de 2 gpu solutions gebruik te maken, dan wel. Genoeg dx12 titels uitgekomen, maar bijna geen een heeft tot nu toe (behalve ashes of singularity, Hitman) meer als 2 gpu's gebruikt (los van CF en SLI)
Nou het zijn 2 igpu de intel en de Vega en als derde de dgpu
Je hebt gelijk, Vega + Intel HD 630, overheen gelezen ;-)
Maar zouden die wel tegelijk kunnen werken?

[Reactie gewijzigd door PeterBezemer op 23 juli 2024 04:12]

Waar ligt de performance van Vega RX M GH eigenlijk, weet iemand dat. Komt ie in de buurt van RX 460 ?
Eigenlijk weten we niks over de hele vega chip die erin zit, laten we eerst maar eens wachten op de hoeveelheid ncu's. Dat erbuiten zal deze zeker finaal over de rx 460 heen gaan
Erg vreemd dat ze de HD630 er ook in houden. Ik zou verwachten dat ze die weglaten om oppervlakte en thermisch budget te besparen? Bovendien wil een setup als deze zetten dat het hier om hybride graphics zal gaan, en je dus wellicht de nadelen daarvan zal moeten verdragen (slechtere V-Sync en/of een extra frame latency, bijvoorbeeld).
ZUCHT...

Ze maken het er niet beter op met al die vake naam aanduidingen ga gewoon ieder jaar naar een nieuwe serie.
Nu komen ze met 7xxx en 8xxx uit die er al zijn mat net iets ander nummer of letter erachter.
Zijn deze nieuwe CPU's nou ook vatbaar voor Meltdown en Spectre?

Op dit item kan niet meer gereageerd worden.