Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Foto toont package met Intel-processor en AMD-gpu - update

Op internet is een foto verschenen van een prototype moederbord met daarop de package met Intel-processor en AMD-gpu. Afgelopen maandag kondigde Intel aan met zo'n package te komen, voor dunne en lichte laptops met hoge grafische prestaties.

Bits and Chips publiceert de foto op Twitter, zonder enige toelichting. Op de afbeelding is de Intel-processor te zien, met daarnaast op enige afstand, maar wel onderdeel van de package, de AMD-gpu en het HBM2. Het gaat om een prototype moederbord, niet om een laptopmoederbord, en er is een 14-fasige stroomvoorziening aanwezig.

Afgelopen maandag kondigde Intel de komst aan van een package met Intel Core H-processor, AMD-gpu en HBM2. Intel werkte samen met AMD’s Radeon Technologies Group om een semi-custom grafische chip te ontwerpen. Intel heeft meer plannen met gpu's: het nam Raja Koduri van de Radeon-tak aan als chief architect om high-end gpu's te maken.

Notebookcheck bericht over enkele benchmarks die verschenen zijn en die afkomstig zouden zijn van de Core i7-8705G en i7-8809G met de AMD Radeon-gpu. Bij de 3DMark 11 Graphics Performance-test scoren i7-8705G en i7-8809G respectievelijk 3777 en 3960 punten.

Dat is minder dan een GTX 950 van Nvidia, maar meer dan een GTX 940MX. Er is ook een benchmark van Ashes of the Singularity, waarin de Radeon-gpu van de Intel-package vergelijkbaar aan een GTX 1050 of GTX 965M scoort. Niet bekend is of de benchmarkscores authentiek dan wel representatief zijn. Intel heeft aangegeven dat de laptopchip met cpu en gpu in het eerste kwartaal van 2018 uit zal komen.

Update, vrijdag, 08.20: Hardware.info kwam erachter dat een tweede foto op internet staat, op de Chinese site Chiphell. Hierop is het gehele bord met de package zichtbaar.

Door

Nieuwscoördinator

72 Linkedin Google+

Reacties (72)

Wijzig sortering
De buren hebben nog een tweede foto waarop bijna het hele bord te zien is. 2x DDR4, 2x M.2, 2x SATA en echt een shitload aan IO. Zou heel goed de volgende NUC kunnen worden.
Gezien de grootte van de batterij en de plaatsing van de poorten, zou het inderdaad kunnen zijn dat deze combinatie AMD/Intel meer dan alleen de laptop-plannen van intel inhouden.
Hieruit kun je de grootte van het bordje inschatten. En de dimensies lijken veel op een NUC-bord.

Kan natuurlijk ook zijn dat dit de makkelijkste test-opstelling is.

Maar het lijkt mij ook verdacht veel op een NUC-bordje qua grootte van het geheel.
Als ze dit in NUC stoppen dan moet ik erg mijn best doen om mijn portemonee dicht te houden.
Ik koop hem ook direct ! De simpele reden is van kleine pc’s houd (je plakt ze aan uw scherm) dus ik creer een goedkope all in one. En de nuc is zuinig, stil, performant en betrouwbaar door de jaren heen. Gewoon geheugeb kopen, ssd, windows installeren en gaan!

Maaar.. de nuc heeft een vrij trage gpu. Zowel op de i3,i5,eni7 Ik draai veel grafische software die merkbaar vlotter loopt op een laptop met dedicated gpu. Copy/paste van graphics, inzoomen, uitzoomen op uw werkblad, scrollen door een tijdslijn en websites renderen sneller, vooral als er veel grafische pixels met javascript worden aangestuurd.

Kortom ik miste GPU-kracht en waarschijnlijk ook het dedicated geheugen en ik hoop echt dat ze bij deze dit probleem hebben omgelost door een amd gpu er in te steken!

Een ander voordeel dat je makkelijker een 4K scherm kan aansturen en dat uw gehele pc-setup langer meegaat want de reden waarom ik oude nuc’s en laptop wegdoe is puur omdat hun gpu niet meer meekan en vaak komt dat omdat ze een gebruik maken van een igpu.
Ik koop hem ook direct ! De simpele reden is van kleine pc’s houd (je plakt ze aan uw scherm) dus ik creer een goedkope all in one. En de nuc is zuinig, stil, performant en betrouwbaar door de jaren heen. Gewoon geheugeb kopen, ssd, windows installeren en gaan!

Maaar.. de nuc heeft een vrij trage gpu. Zowel op de i3,i5,eni7 Ik draai veel grafische software die merkbaar vlotter loopt op een laptop met dedicated gpu. Copy/paste van graphics, inzoomen, uitzoomen op uw werkblad, scrollen door een tijdslijn en websites renderen sneller, vooral als er veel grafische pixels met javascript worden aangestuurd.

Kortom ik miste GPU-kracht en waarschijnlijk ook het dedicated geheugen en ik hoop echt dat ze bij deze dit probleem hebben omgelost door een amd gpu er in te steken!
de vrij teage gpu is juist wat het mogelijk maakt om zo stil en zuinig te zijn. met zo'n dedicided gpu kanje dat niet bereiken onder een aardige load. er zijn twee opties, namelijk snel, luid en energievretend of langzaam, stil en energiezuinig. een van beide moet je kiezen.
Dat verhaal klopt maar deels. Smartphones hebben net een sterke gpu om het totale verbruik te laten zakken. Gpu-accelerated helpt effectief.

Daarnaast hoeft een externe gpu niet meer te verbruiken, het kan in 100% load idd meer pieken maar een grafhische software gaat dat over seconden dus de fans hoeven amper in te grijpen.

Een snelle auto verbruikt ook per definitie meer dan een trage auto, hangt van uw rijgedrag af maar je hebt wel altijd en overal meer kracht. Sneller optrekken verbruikt niet altijd meer omdat je ook sneller op kruisdnelheid bent.

Tevens heb je altijd voordeel van snel en veel dedicated gpu geheugen. Daardoor wordt de cpu en cpu-bus ontlast en gaat alles veel sneller zonder extra vermogen op tafel te gooien. En wil je toch een uur lang 100% load dan zal je uw fans hevig horen spinnnen.
Lijkt mij juist te groot voor een nuc bord. Dit lijkt mij een STX formaat.
Leuk voor de laptops maar zie deze liever terug komen in de Intel NUC's, laptops hebben nog redelijk veel ruimte ten opzichte van een NUC
Dat gaat waarschijnlijk ook gebeuren. Zie dit artikel:
nieuws: 'Intel komt met Hades Canyon VR-nuc met 100W-cpu en dedicated gpu'

Destijds was de samenwerking tussen Intel en AMD nog niet bekend, maar de chip die daar beschreven wordt is waarschijnlijk de maandag aangekondigde combinatie.
Meer achtergrond info en doorredenering op dit nieuws van AdoredTV.
https://www.youtube.com/watch?v=mNY5e5CFlbc
Dit plaatje is ook meer een nuc. (Recht opstaande ram, ook al is het wss nog een testboard)

[Reactie gewijzigd door Stijn Weijters op 9 november 2017 20:20]

Development board lijkt me
Als ik die foto zie, is het ram geheugen nog steeds apart.
Ik dacht dat zowel de GPU als de CPU het HMB2 kon aanspreken?
Omdat het HBM geheugen te klein is?
HBM2 op high end gaming grafische kaarten kon maximaal 8GB aan.
Ik weet niet of er hier ook 8GB gebruikt wordt of minder maar 8GB is mischien te weinig voor sommige high end laptops. (waar deze cpu/gpu combinatie voor bedoeld is neem ik aan.)


Edit:
AMD GPU's gebruiken zelfs 4 2 stapels van HBM(2) modules van elk 1 2GB(HBM1) of 2 4GB(HBM2) om tot die 8 of 16GB te komen waarbij deze maar 1 stapel gebruikt, dus het lijkt erop dat deze chip maar maximaal 2 8GB beschikbaar kan hebben


Waarschijnlijk wordt het alleen voor de GPU gebruikt en misschien als cache voor de cpu.

Nog een edit:
informatie bijgewerkt.

[Reactie gewijzigd door TweakJunior op 9 november 2017 17:11]

"Waarschijnlijk wordt het alleen voor de GPU gebruikt en misschien als cache voor de cpu."
Ik denk dat je hier de spijker op z'n kop slaat. Voorlopig zijn GPU en CPU gewoon op dezelfde die geplakt, maar geheugen delen zal nog wel een stap of 4 te ver zijn. Ergo heb je dus het gewone geheugen voor je CPU, en werkt de GPU met HBM2. Communicatie gaat dan ofwel over PCIe, of over InfinityFabric, als AMD dat ook aan Intel licenseert.
Communicatie tussen CPU en GPU gaat via Intels "Embedded Multi-Die Interconnect Bridge" (EMIB).
Dit is een communicatiekanaal op een klein stukje in het substraat (het groene spul) ingebed silicon met zeer grote bandbreedte wat alleen maar op erg korte afstand werkt. Het is een stuk goedkoper dan een silicon interconnect ter grote van de hele chip. Je zou ook datacommunicatie door het substraat kunnen doen maar bij veel 'lanes' neemt dat teveel ruimte in beslag en je kan doorvoersnelheid verliezen. Verder is op zo'n korte afstand weinig (geen?) protocoloverhead vereist en het is veel energiezuiniger dan bijv. PCI-E gebruiken.

http://ieeexplore.ieee.org/document/7545486/
https://www.intel.com/content/www/us/en/foundry/emib.html

(edit) Ik zie net dat Intels promotiefilmpje alleen maar expliciet de dataverbinding van het HBM2 en de GPU over EMBI laat gaan... Ik weet dus niet zeker dat de dataverbinding tussen GPU en CPU ook van deze interconnect gebruik maakt...

https://www.youtube.com/watch?v=gaHs_guCp2o

[Reactie gewijzigd door jiriw op 9 november 2017 19:15]

Ik kan me zo voorstellen dat AMd wel gebaat is bij een ijzersterke combo van intel CPu met AMD radeon geweld voor een design als dit en dat ze infinityFabric daarvoor wel willen licenseren maar dat dit wel gelijk klaar is als AMD zelf met een dergelijke setup komt.
Ze zullen er zeker een mooie deal van willen maken, maar het direct benaderen van het geheugen door beide modules, die er vermoedelijk hele andere protocollen op na houden (geen van beide partijen zal 'even' z'n hele interface overhoop gooien) gaat nog wel even duren, ik vermoed minimaal een jaar.
Ik kan me anderzijds voorstellen dat de verkoop van GPU's aan Intel een eenzijdige deal was van RTG, zonder te kijken naar de CPU divisie. Een deal die Intel steviger in het zadel zet. En die zorgt dat AMD niet als enige een dergelijk product kan uitbrengen (Zen/Vega combo).

Door die deal is Intel dus (een paar jaar?) uit de nood terwijl het opnieuw probeert om een deftige GPU te maken, met de hulp van Raja Koduri (voormalig hoofd RTG).

Het werd al eerder aangegeven dat Raja RTG onder de vleugels van Intel wou onderbrengen (vandaar ook de eis van RK om een afgescheiden divisie). Nu dat feestje niet is doorgegaan, kan je al bijna van een 'inside-job' spreken i.v.m. de deal met Intel.

Misschien was dit de druppel (na het (mis-)management van de Polaris- en Vega-projecten) die heeft gezorgd voor het ontslag van R.K. als hoofd van RTG (zie de memo i.v.m. de sabbatical).

Waarna hij dan maar geheel is overgelopen.

[Reactie gewijzigd door Jack77 op 10 november 2017 20:07]

16GB op de frontier edition ;)
je hebt gelijk en ik zie nu ook dat het niet 4 stacks maar 2 stacks zijn dus dat verhoogt het maximale naar 8GB per stack.
Het videogeheugen zit in de chip:
The new product, which will be part of our 8th Gen Intel Core family, brings together our high-performing Intel Core H-series processor, second generation High Bandwidth Memory (HBM2) and a custom-to-Intel third-party discrete graphics chip from AMD’s Radeon Technologies Group* – all in a single processor package.

Voor meer inhoud: Anandtech
Een CPU HMB2 aan laten spreken is niet heel nuttige, de bus naar het geheugen is te breed om een CPU hier nuttig gebruik van te laten maken. Verder is er in overige berichten vanuit Intel en AMD aangegeven dat het HMB2 geheugen enkel voor de GPU is.
Dat klopt. Als je op de foto kijkt zie je ddr4-1 en ddr4-2. Ze zijn beide bestukt. CPU geheugen wordt voor de cpu apart aangestuurd. HBM2 voor de gpu. Zo kunnen ze onafhankelijk van elkaar lezen. Lijkt mij beter en efficiënter dan het delen van geheugen.
Het geheugen op de package is grafisch geheugen, 8GB aan HMB2. Je hebt nog steeds RAM nodig voor de rest van het systeem.
Ik had me dit eerlijk gezegd toch eleganter voorgesteld. Dit lijken gewoon twee IC's met een zwembandje er om heen. Ik had me twee "cores" op één plak silicium voorgesteld.
Dit is eigenlijk veel eleganter omdat je zo de yield veel beter kunt behalen en verschillende processen kunt gebruiken.
En als er wat meer ruimte tussen zit, is het eveneens makkelijker voor de koeling.
Een hardwerkende CPU en direct ernaast een hardwerkende GPU geeft een bak warmte af.

Wat meer tussenruimte maakt het makkelijker koel te houden.
Plus ik kan me zo voorstellen dat AMD niet precies prijs wil geven hoe hun GPU in elkaar zit, wat wel nodig is willen ze het op één chip doen.
Al willen ze het wel vrijgeven, AMD's huidige design line-up is ontworpen voor GloFo's procedé's. Die kun je niet zonder meer even 1:1 naar Intel's fab's overzetten; dat zou een aardig ontwerpteam heel wat uurtjes kosten.

En eerlijk gezegd, een goede (elektron)microscoop en wat kennis van GloFo's procedé's en het zou zeker bij een IC-productietitaan als Intel niet bijster lastig moeten zijn die GPU van boven tot onder te doorgronden.

Nee, productiekosten van een procedewissel is waar het hier om gaat :)
2 verschillende chip fabrikanten met 2 verschillende nanometerprocedes ga je niet op 1 stuk silicium krijgen.
+ je krijgt veel kleinere yields, als 1 van de 2 niet goed gebakken is hoef je ze niet allebij weg te gooien zoals het geval is met bijvoorbeeld AMD's APU's en intel CPU's met iGPU.
Als de gpu niet goed is dan hoeven ze dus alleen de gpu weg te gooien.
De eerste generatie Intel Core i processoren hadden ook de cpu en gpu als twee apartie dies op een enkele package, niet elegant maar je moet ergens beginnen :P
Het is natuurlijk de vraag in hoeverre dit een prototype is en of de uiteindelijke productie package er ook nog zo uit ziet. De socket die nodig is voor deze combi lijkt me ook nogal onhandig groot.
Ik snap hier het voordeel niet van. Waarom stopt Intel er geen eigen snellere GPU van Nvidia in? Prijs?
Omdat het er alles van weg heeft dat deze opzet van Intel (en AMD) juist als doel heeft Nvidia die een steeds groter wordende concurrent van Intel is uit deze markt te prijzen.
Dat AMD een deal met Intel heeft gesloten over het combineren van een Intel CPU en een AMD IGP kan ik mij nog wel voorstellen.

In het gegeven dat Raja Koduri nu verkast naar Intel en daar ook leiding lijkt te gaan geven aan de ontwikkeling van discrete graphics kaarten zie ik het belang van AMD niet terug.

Als de plannen voor discrete graphics goed voor Intel zouden uitpakken, dan is dit niet alleen voor nVidia een issue, maar misschien nog een groter nadeel voor AMD zelf. Ik hou mij nog maar even vast aan het woordje als. De combinatie van de AMD kennis gecombineerd met de financiële slagkracht van Intel lijkt mij alleen voor Intel zelf een voordelige situatie. AMD moet haar voorsprong op graphics vlak ten opzichte van Intel trachten te behouden. Op termijn lijkt mij dat best een uitdaging.
Ben benieuwd of Raja deze deal met voorbedachte rade heeft besloten.
Ik heb mij ook proberen voor te stellen wat er kan zijn gebeurd. Je kan ook de andere kant op denken. Tussen AMD en Intel moet voorafgaand aan het publiceren van de samenwerkingsplannen intensief overleg zijn geweest. Voor Raja Koduri is er dus gelegenheid genoeg geweest om met Intel een alternatief plan te verkennen.

Dit maakt het verkassen van Raja Koduri voor mij een voor AMD ongewenste consequentie van een samenwerking tussen beide bedrijven.

Ik vind het jammer dat dit zo gebeurd. Als het vertrek van Raja een voor AMD onverwachte gebeurtenis is, zal dit de samenwerking met Intel voorlopig wel een wrange bijsmaak geven.
dan nog. Intel betaald de boete die eruit vloeit richting AMD en Raja heeft een nieuwe werkplek met veel meer finacieele vrijheid dan AMD.
Een voordeel voor AMD kan zijn dat het nu de kinderziektes bij Intel goed kan bestuderen en over een paar jaar met een betere uitvoering komen van een AMD Zen processor + GPU op één package. Daarnaast kan het AMD weer wat naamsbekendheid opleveren bij de laptop fabrikanten. Die lijken AMD de laatste tijd voor alles behalve hun low-budget modellen mis te lopen.
Ik denk dat AMD die ervaring al heeft omdat ze al jaren APU’s ontwikkelen. Wat ze wel kunnen leren van deze opzet is misschien het voordeel die deze Intel opstelling heeft tegenover dat van een APU. Ipv een single die package de 2 componenten los te plaatsen kan voordelen opleveren op het gebied van warmteontwikkeling en ontwikkeling en productiekosten. Je hoeft immers geen nieuwe die te ontwerpen met GPU maar je plakt die gewoon samen met een CPU op 1 package.

[Reactie gewijzigd door Crp op 9 november 2017 18:27]

Wat dacht je van Raven Ridge?
De combinatie van de AMD kennis gecombineerd
Geef je de beste man niet te veel credit? er gaat maar 1 persoon van AMD naar Intel, niet het hele grafische team, Raja heeft echt niet in ze eentje de GPU ontworpen
Nee, inderdaad. En misschien is dat maar goed ook. Hij zal trouwens die technologie niet onverkort kunnen gebruiken, omdat alles natuurlijk aan elkaar hangt in een web van patenten. Op zich helpt goed op de hoogte zijn van wat de concurrentie doen wel om daar zelf op verder te variëren. Soms kan het alleen best moeilijk zijn om iets nieuws te verzinnen.
Ze willen juist concureren met nVidea.
Het zou helemaal leuk zijn als AMD hetzelfde zou doen met nVidea maar dan met de CPU. Dus 1 substraat die nvidea verkoopt aan OEM's met een Ryzen CPU en hun eigen GPU.

Meer leuke vieuws hierop :
https://www.youtube.com/watch?v=mNY5e5CFlbc
typo: nVidea -> Nvidia (of NVIDIA, nVIDIA, nVidia als je het graag stijlt)
En uiteindelijk zijn er zoveel samenwerkingen dat iedereeen fuseert :+
Waarom zitten eigen en Nvidia in één zin? Intel en Nvidia zijn compleet onafhankelijke bedrijven hoor.
Onder "Lees meer" wordt gelinkt naar dit nieuwsbericht van 3 dagen geleden. nieuws: Intel en AMD werken samen aan nieuwe laptopchip - update.
Intel en AMD werken samen aan een laptopchip, zo meldt een bron aan zakenkrant The Wall Street Journal. Die maakt gebruik van een Intel-cpu en een AMD-gpu. De samenwerking zou tot doel hebben om te concurreren met Nvidia.

[Reactie gewijzigd door job_h op 9 november 2017 16:44]

Gpgpu,
https://nl.m.wikipedia.org/wiki/GPGPU
Staat een korte samenvatting.


Zelfs producenten van ARM zijn in staat om concurrerende chips tegenover Intel te zetten. Mede dankzij het feit dat ze veel slimmer gebruik maken van hun GPU.


Bij supercomputing kijk je tegen hetzelfde probleem aan,
Nvidia dat de klok slaat, mede dankzij hun GPU. En AMD begrijpt dat al iets beter dan Intel.

Xbox One zit hardware van AMD in en die spuugt onder bepaalde omstandigheden al 6 teraflops uit.

Intel loopt op dit front zwaar achter de feiten aan,
en zelfs de aanschaf van verschillende bedrijven en uitbrengen en xeon phi maakt het verschil niet.


Nvidia heeft de standaard gezet, Intel zal moeten volgen,
en geen andere partij die een betere optie is dan AMD/Ati. Nauw verwant en een portfolio vol met patenten waar Intel gebruik van kan maken zonder dat Nvidia aan de deur komt kloppen.
Lees het eronder gelinkte artikel eens:

INTEL en AMD werken samen aan Laptop-combinatie.

Dan had je jouw vraag niet hoeven te stellen.
Eigen GPU van Nvidia? Nvidia is niet van Intel.
Er is een reden waarom een grote AMD man bij Intel is gaan werken. Niet om er Nvidia chips in te stouwen.
Heeft nVidia überhaupt een GPU/technology die je hier mee kan combineren? volgens mij niet
Hun maken losse videokaarten.. die kan je niet zomaar even aan een CPU plakken.

mooi trouwens dat er nog steeds mensen zijn die denken dat nVidia en Intel 1 bedrijf zijn omdat AMD en ATI dat ook soort van zijn

[Reactie gewijzigd door Sinester op 10 november 2017 12:19]

Prestaties van een GTX 950 maar waar heb je dan 4GB HBM voor nodig?
4GB omdat dat minimum is tegenwoordig. Hbm omdat het minder ruimte inneemt en minder stroom gebruikt.
Ah oke, maar HBM is wel ontzettend duur vergeleken GDDR5. Ik ben erg benieuwd hoe dit gaat uitpakken en wat nu precies de doelgroep is. Serieus gamen kan je er niet echt mee lijkt me op hogere resolutie en de standaard oplossing waar het wel mee kan zal denk ik nog wel blijven bestaan.
Je realiseert je dat de doelgroep all-in-one devices en mobiele apparaten is, toch? Dit soort technologie ga je voorlopig niet zien in high-end gaming laptops, maar voor het middensegment is het een mooie oplossing.

[Reactie gewijzigd door Laloeka op 9 november 2017 18:10]

Als je de presentatie van Intel bekijkt is dit juist wel bedoeld voor het High-end en niet meer low end of Mid-end

Hun hele bedoeling met dit gebeuren is de zelfde power in dunne laptops stoppen als nu in grootte logge laptops zit
Dit komt door de footprint van HBM, dat neemt gewoon veel minder ruimte in in je systeem dan standaard gddr5. De eerste fury kaarten waren bijvoorbeeld ook erg kort omdat HBM zoveel minder PCB ruimte nodig heeft. Voor Laptops dus extreem handig als je het klein wil houden.
Je kunt nog niet concluderen dat de prestaties gelijk zijn aan een GTX 950. In andere opgedoken benches is de chip juist sneller en Bits & Chips dat deze foto online zette spreekt zelf over R9 285-snelheid. Vooralsnog zijn het speculaties en voorbarige resultaten die niet zijn te verifiëren.
Dus even amd gebruiken voor de startup, daarna de ex-amd medewerker gebruiken voor een volledig eigen lijn. Doen ze ergens toch best slim.
Als je met 1 overgenomen AMD medewerker, een manager ook nog, zoiets zou kunnen bereiken doet AMD toch wat verkeerd, al dat personeel en maar 1 man die al het werk doet.
AMD heeft een ander belangrijk iemand in dienst, iemand die lead was bij het ontwikkelen van de IBM CELL CPU welk bekend is van o.a de PS3. Dat deze medewerker vertrekt betekend niet dat ze geen grafische kaarten meer kunnen maken. Integendeel. Hij is / was een zoveel schakeling. Bij het ontwikkelen van een GPU komt vaak een enorm aantal mensen bij kijken met ieder specialiteit in hun eigen afdeling.
Of voor de optimalisatie hiervan! :)
Ik denk eerder dat deze man heimelijk al voor intel gekozen had en intel gewoon de -ip's van- radeon group wilde inlijven om zelf gpu's te maken voor o.a. de compute markt. Het is niet gelukt, zijn bazin was er tegen, hij wist dat hij geen toekomst meer had bij AMD kwam met een onzin verhaal dat hij meer bij zijn familie wilde zijn gaat vervolgens bij een compleet nieuw bedrijf en een zware taak op zich nemen, aap is nu wel uit de mouw.

Ik denk wel dat intel nu nvidia min of meer dwingen om af te stappen van x86 (lol) en zwaarder gaan leunen op ARM waardoor op termijn intel best wel is schade kan krijgen. Zeker als windows ook gewoon op ARM draait en games steeds meer multicore ondersteuning krijgen, waarom nog een x86 cpu als een arm cpu ook gekoppeld kan worden aan een snelle desktop gpu. Tegenwoordig zijn de snapdragons -single core prestaties- wel sneller dan de jaguar cores (van AMD) uit een xbox/ps4, geef het een hoger TDP en meer cores. Als windows x86 goed kan emuleren en je gewoon de zelfde prestaties kan verwachten van een ARM chip (aangezien de cpu bijna nooit meer de bottleneck is) waarom niet een ARM chip? --> zeker voor de generatie die nu aankomt.

[Reactie gewijzigd door D0gtag op 9 november 2017 21:30]

en er is een 14-fasige stroomvoorziening aanwezig.
4 of 6 voor de cpu, 6 of 8 voor de gpu, en 2 voor de hbm?
Het zijn er iig aardig wat.
deze zijn waarschijnlijke voor test doeleinden
Goede ontwikkeling. Mooi voor een Intel NUC en UHD en HDR.
"eigen" Nvidia? Nvidia is geen onderdeel van Intel, maar gewoon een apart bedrijf hoor.

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S9 Dual Sim Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*