Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel werkt aan 'Arctic Sound'- en 'Jupiter Sound'-gpu's

Intel werkt naar verluidt aan losse 'Arctic Sound'- en 'Jupiter Sound'-gpu's, die moeten verschijnen als respectievelijk de twaalfde en dertiende generatie videochips. Intel zou de gpu's via emib met de processor willen verbinden, net als bij de recente processor met Vega-gpu.

Dat Intel de losse gpu's met projectnamen 'Arctic Sound' en 'Jupiter Sound' ontwikkelt, meldt Ashraf Eassa van The Motley Fool. Hij heeft vaker Intel-nieuws naar buiten gebracht. Details over de gpu's geeft hij verder niet.

Aangezien het om de twaalfde en dertiende generatie van gpu's gaat, zal het nog jaren duren voordat ze verschijnen. Momenteel hebben de Kaby Lake-R-, of achtste generatie processors, gpu's van generatie 9.5. Waarschijnlijk werkt Raja Koduri aan de gpu's. Deze voormalige Radeon-topman werkt inmiddels bij Intel om aan high-end gpu's te werken.

Arctic Sound en Jupiter Sound zouden via de emib-technologie met de processor verbonden worden. Dit is een methode om snelle interconnects tussen verschillende dies te realiseren zonder hoge kosten en ingewikkelde productiemethodes. Intel maakt hiervan gebruik bij zijn G-serie processors met AMD Vega-gpu.

Door

Nieuwsco÷rdinator

64 Linkedin Google+

Reacties (64)

Wijzig sortering
Rare keuze om gpus "sound" te noemen
Intel gebruikt geografische namen voor hun codenamen. Vertaald vanaf de Engelse Wikipedia:
In de aardrijkskunde is 'sound' of 'sund' een grote zee- of oceaaninham groter dan een baai, dieper dan een bocht en breder dan een fjord; of een smal zee- of oceaankanaal tussen twee landlichamen (zie ook zeestraat).

Er is weinig consistentie in het gebruik van "sound" in Engelstalige plaatsnamen.
* Arctic Sound, Kitikmeot, Nunavut, Canada
* Jupiter Sound, Florida, Verenigde Staten
* https://en.wikipedia.org/wiki/Sound_(geography)
* https://nl.wikipedia.org/wiki/Sund
Dat kan allemaal wel wezen, maar waren er dan echt helemaal geen andere geografische namen om te gebruiken die minder verwarrend waren? Op het eerste gezicht lijkt het er nu op dat Intel bezig is met iets van een chip voor geluid...
Gelukkig zijn het interne naamgevingen van de generatie/architectuur, die niet in het krantje van de Mediamarkt/Expert/ElectroWorld/etc komen, dus niet verwarrend gaan zijn voor de consument.
De bedoeling van een codenaam is ook om een klein beetje verwarring te scheppen 😉
Dus jij denkt ook dat de intel coffee lake cpu’s alleen bedoeld zijn voor in koffiezet-apparaten?
Hierin heb je natuurlijk gelijk. Blijkbaar wordt die associatie minder makkelijk gemaakt. Ik hoop tenminste dat koffiezetters niet de modernste generatie Intel processsors gebruiken, zou een beetje overkill zijn.

Misschien is de interpretatie dat MS aan sound-kaarten zou werken wel een generatiedingetje. Vooral diegenen die nog discrete geluidskaarten in hun PC hebben (gehad) trappen wat makkelijker in die valkuil.
Met de komst van de pratende koelkast, denk ik dat het nog niet zo gek is / lang gaat duren voordat ook koffiezetapparaten hiermee gaan komen... Misschien niet de high-end processors, maar de processor generaties zijn vrij breed bij intel :) Als ik er zo over nadenk vind ik een slim koffiezetapparaat wat logischer dan een slimme koelkast.

Toen ik de artikelkop las keek ik ook even raar, de keuze voor "sound" ten opzichte van "lake" is toch iets anders, lake heeft niet echt een andere betekenis eraan hangen die met pc's te maken heeft.
Klopt. Ik dacht spontaan dat ze bezig waren met de ontwikkeling van synthesizer chips.
Hoewel ik wel wist waar het over ging is bij mij Jupiter+Sound=Synthesizer zoals Juno dit ook is. :D
Ik hoop eigenlijk dat ze een beetje vriendelijk zijn voor het stroomverbruik. In het verleden vond ik het altijd zonde om een zware NVidia of AMD GPU te zetten in mijn systeem dat eigenlijk alleen maar wat Windows deed. Intel GPU's zijn daarvoor dikke prima.

Idem voor laptops. Voor een laptop vind ik een GPU echt overkill; ik wil daarop gewoon programmeren, wat Word en wat Powerpoint... een GPU kost in dat soort scenario's alleen maar een hoop accuduur.
Idle stroomverbruik van gpu's is erg laag tegenwoordig, dit is niet iets waar je je zorgen over hoeft te maken.
Ik heb er weleens op gezocht, maar kan de getallen niet vinden voor laptops.

En voor geintegreerde GPU's bij desktops vind ik het helemaal niet zo laag: https://nl.hardware.info/...roomverbruik-gtx-960-idle .
https://www.techpowerup.c...GTX_1050_Gaming_X/25.html

de 1050 doet 3 a 4 watt idle.

[Reactie gewijzigd door haarbal op 15 januari 2018 11:34]

OK, thanks. Zo te zien in de link is 5-8W vrij normaal

Een accu van 4400 mAh komt neer op (14,4V) ongeveer 60 Wh. Als je een laptop hebt die 4 uur meegaat op een accu, is dat dus 4h * 5W = 20 Wh verbruik aan idle videokaart.

Dat vind ik heel erg veel. Een i7-7500U CPU van Intel gebruikt zo'n 15W, incl. graphics.
Ik vind het best netjes voor een desktopkaart. Laptopkaarten gaan vast nog lager dan die 3W.
Wat je ook kunt doen, is een laptop met TB3/USB-C nemen voor een eGPU.
Met eGPU wordt externe GPU bedoeld. :) Een videokaart dus, die je aansluit op de laptop.

[Reactie gewijzigd door CH4OS op 15 januari 2018 13:51]

Geen idee waarom het niet zou helpen, als je een zuinigere laptop wilt (zoals je schrijft).
Je sluit dan de eGPU toch aan op het moment dat je het nodig hebt? ;)

Wanneer je het niet nodig hebt, sluit je het niet aan en zal de laptop de iGPU gebruiken (en dus de zuinigere GPU)?

[Reactie gewijzigd door CH4OS op 15 januari 2018 14:29]

Dat, je hebt dan semi roaming (iig voor licht werk) en potentieel geen PC meer nodig. Desnoods maak je een soort van dock van de eGPU constructie. En hij werkt ook nog 'ns als BYOD op 't werk.

[Reactie gewijzigd door Jerie op 15 januari 2018 15:30]

Idem voor laptops. Voor een laptop vind ik een GPU echt overkill; ik wil daarop gewoon programmeren, wat Word en wat Powerpoint... een GPU kost in dat soort scenario's alleen maar een hoop accuduur.
Laptops met een Intel-CPU hebben gewoon een variant vanuit de Intel HD-lijn aan boord. Als ze een dedicated GPU erbij hebben, zal de laptop aan de hand van de vereiste load bepalen welke GPU er gebruikt wordt, naadloos. Heb je de dedicated GPU niet nodig, gebruikt de laptop die dus ook niet en is het verbruik van de accu minder.
Mijn broer had 4 jaar terug zo een laptop en in game gebeurde die switching ook met als gevolg continue micro stutters
1) dat lijkt me erg stug, het wisselen van de game naar een geheel andere grafische chip zorgt voor meer dan "micro" stutters. Volgens mij is dat helemaal niet mogelijk zonder de game te crashen. Ook kan die Intel GPU de game helemaal niet zo lekker draaien als de dedicated, dus zou je FPS ook gigantisch moeten droppen.

2) je kunt de grafische kaart forceren op bepaalde apps in Windows.
Ik heb toen de gpu continu op dedicated gezet via de bios geloof ik.
De fps ging ook merkbaar naar beneden en dat was in minecraft.
Blijkbaar was de load in minecraft soms zo laag dat de dedicated gpu uit werd gezet, van zodra er net wat meer moest gerenderd worden dan kwam die wel in actie met als gevolg micro stutters.

Blijkbaar heet de techniek Nvidia optimus. Een probleem daarmee is dat niet altijd de dedicated gpu geselecteerd wordt. Het zal dan zo geweest zijn dat de micro stutters in minecraft het gevolg waren van de Intel igp en niet van het switchen tussen 2 gpu's want dat lijkt inderdaad niet mogelijk in game.

[Reactie gewijzigd door peke op 15 januari 2018 13:18]

Nogmaals, volgens mij kan dat helemaal niet zo werken, dat een Intel GPU even offload naar en Nvidia GPU. Logischer is dat het gedeelde geheugen te druk was of de kaart vrij low spec, de hitte te veel of een van de vele andere problemen die je krijgt van met een laptop gamen.
Dat kan inderdaad niet zonder duidelijk switchen van gpu (even zwart beeld tussendoor) En ook grafisch zou er dan verschil te zien zijn, want intel en nvidia verschillen duidelijk van elkaar in renderkwaliteit. Dit soort problemen ontstaan eerder door throttling / warmte ontwikkeling of de GPU is gewoonweg niet zo snel. Laptops & gamen is altijd al problematisch geweest maar on-the-fly switchen tussen zulke verschillende GPU's is echt niet mogelijk, game zal gelijk crashen.
Laptops met een Intel-CPU hebben gewoon een variant vanuit de Intel HD-lijn aan boord. Als ze een dedicated GPU erbij hebben, [...]
Ja, dat is het hele punt. Intel gaat nu een samenwerking aan met AMD. Ik verwacht dat dit _in plaats van_ de Intel HD's gaat. Waar mijn bezwaar zit is dat ik bang ben dat deze stap ten koste gaat van battery life van ultrabook's.
Arctic Sound en Jupiter Sound zouden via de emib-technologie met de processor verbonden worden.
[...] zal de laptop aan de hand van de vereiste load bepalen welke GPU er gebruikt wordt, naadloos.
Laptops nu bepalen dit niet naadloos of op load gebaseerd, het zijn gewoon settings in je OS (of bios) die een harde switch doen. In je NVidia control center kan je het per applicatie specificeren. Tot je een dedicated GPU gebruikt, staat hij gewoon in idle mode. Dat is ook logisch: je kan niet zomaar in een game van Intel naar NVidia switchen zonder een hele bak aan ellende.
Ja, dat is het hele punt. Intel gaat nu een samenwerking aan met AMD. Ik verwacht dat dit _in plaats van_ de Intel HD's gaat. Waar mijn bezwaar zit is dat ik bang ben dat deze stap ten koste gaat van battery life van ultrabook's.
Dat dacht ik in eerste instantie ook, maar is dus niet zo. De CPU's die er in zitten zijn gewoon 'normale' laptop CPU's. :)
Laptops nu bepalen dit niet naadloos of op load gebaseerd, het zijn gewoon settings in je OS (of bios) die een harde switch doen. In je NVidia control center kan je het per applicatie specificeren. Tot je een dedicated GPU gebruikt, staat hij gewoon in idle mode. Dat is ook logisch: je kan niet zomaar in een game van Intel naar NVidia switchen zonder een hele bak aan ellende.
Eh, nee. Tegenwoordig gaat dit echt automatisch en soms (afhankelijk van wat er ingesteld is in de driversettings) geforceerd. Als het geforceerd zou worden vanuit het BIOS zou het OS immers slechts 1 videokaart zien. Het heet nVidia Optimus.

[Reactie gewijzigd door CH4OS op 15 januari 2018 13:50]

Dat dacht ik in eerste instantie ook, maar is dus niet zo. De CPU's die er in zitten zijn gewoon 'normale' laptop CPU's. :)
Ah oke, dat verandert in die zin de zaak dat je dus wel gewoon Intel graphics hebt. Enige nadeel dat ik dan nog zie is dat je een AMD on-die op dezelfde packing hebt, die default in idle staat en dus stroom verbruikt.

Vwb. het switchen bedoelen we volgens mij hetzelfde:
Als het geforceerd zou worden vanuit het BIOS zou het OS immers slechts 1 videokaart zien.
Check, dat bedoelde ik daarmee.
Tegenwoordig gaat dit echt automatisch en soms (afhankelijk van wat er ingesteld is in de driversettings) geforceerd. Het heet nVidia Optimus.
Optimus werkt door bepaalde calls te onderscheppen. Als een dergelijke call wordt gebruikt, wordt gedurende de lifetime van de applicatie de GPU aangezet. Die calls zijn DX/DXV/CUDA calls. Daarnaast kan je per applicatie gewoon een voorkeur specificeren in de NVidia settings. Dat bedoelde ik met een "harde switch". Hij zit weliswaar in software verstopt, maar het is nog steeds of-of.

Dat is logisch, want zodra je een buffer of een GPU functie registreert, kan je die niet zomaar van je Intel HD halen en op de NVidia zetten. Maw, onder load valt er niets meer te "verschuiven", je moet bij het opstarten van de applicatie de keuze maken.

Maw, het is niet op load gebaseerd. Het is gebaseerd op calls en settings, die eenmalig bij het opstarten van de applicatie (of preciezer: bij de eerste relevante call) een 'harde switch' maken.

[Reactie gewijzigd door atlaste op 15 januari 2018 15:26]

Bij de Intel CPU's waarbij je een AMD GPU hebt (de Kaby Lake G serie), zit de GPU dus niet "on-die", het zijn fysiek echt twee aparte chips. Zie ook deze afbeelding. Links de CPU, rechts de GPU.

[Reactie gewijzigd door CH4OS op 15 januari 2018 14:37]

Ben benieuwd, Intel heeft een niet zo goede track record wat betreft GPU’s.
Zou Raja techniek mogen gebruiken die hij bij AMD ook had of zit dat dicht getrimmerd?
Waarom zou Intel geen goed track record hebben? Ze verkopen jaarlijks meer GPUs dan nVidia en AMD samen ook al zijn ze niet los te koop in de winkel.
In de zin van dat ze niet erg goed zijn bedoeld hij misschien?
Voor waar ze gemaakt zijn zijn ze toch prima? Ze zijn niet bedoeld voor gaming of zware taken.
Ik denk dat intel best zware gaming gpu’s wil maken, maar het ze niet lukt. Zie ook de recente samenwerking met AMD. Ik zou niet verbaasd zijn als AMD en Intel ooit nog eens gaan fuseren. Het zou de meest logische stap zijn om de concurentie aan te gaan.
Ik denk dat geen enkele toezichthouder op aarde het een goed idee zou vinden als de enige twee grote processorfabrikanten zouden gaan fuseren. Dan is er geen concurentie meer op x86 cpu's. De Chinese x86 cpu's zijn ook nog niet van het zelfde niveau als intel/amd.

Wel zou het kunnen gebeuren dat intel de GPU tak overneemt van AMD.
ik weet niet of dat wel toegestaan zou worden hoor.

dan krijg je eigenlijk 2 monopolies, 1 op de zakelijke (kantoor) markt en 1 op de gamingmarkt.
Maar is x86 wel nog zo dominant dat je uberhaupt op deze architectuur nog wel meerdere spelers nodig hebt om niet van een monopolie te spreken? PowerPC is ook lang nog maar door 1 maker gemaakt en daar had niemand een probleem mee.
dan houden we een duopolie over op de GPU markt, dat zal ook wat ter discussie opbrengen.
Je krijgt dan toch ook maar twee grote GPU speler als Intel - AMD overneemt.
Lijkt me niet echt een goede ontwikkeling voor de markt/consument.
Tevens blijft er minder over van AMD, terwijl ze nu GPU's kunnen blijven verkopen, ook aan concurrenten.
Waarom zou Intel geen goed track record hebben? Ze verkopen jaarlijks meer GPUs dan nVidia en AMD samen ook al zijn ze niet los te koop in de winkel.
Beetje nutteloos statement als die dingen in de Intel CPU's ingebakken zitten :') Het is niet dat mensen die een Intel CPU kopen een keuze krijgen om het ding weg te laten zelfs al gebruiken ze het niet.
Ik heb 1,5 jaar terug bewust een Xeon E3-1270 v5 voor mijn gaming desktop gekocht ipv ene Xeon E3-1275 v5 zodat ik gÚÚn ge´ntegreerde GPU had die ik toch niet zou gebruiken. De keuze is niet groot, maar hij is er wel ;)
En dan gaat je GPU kapot, kan je niet troubleshooten op je ge´ntegreerde gpu... Wat is het prijsverschil? Wat is de reden dat je het per se niet wilde? Als je bijvoorbeeld Netflix kijkt of gewoon een beetje aan het browsen bent, vind je het dan niet zonde van 1) je GPU lifetime en 2) je energieverbruik?

Gewoon serieuze vragen, ben ge´nteresseerd in je beweegredenen.
Als mijn GPU stuk is hang ik hem in een andere PC en troubleshoot ik daar. Voor een beetje browser is de NVidia GPU niet nodig, nee. Maar wat stel je dan voor? Dat ik afhankelijk van mijn workload mijn monitor een ander gaatje prik? Op een laptop werkt dat nog wel, op een desktop is dat nogal bewerkelijk. En het lijkt me sterk dat de GPU significant eerder overlijdt door het gebruik voor desktoptaken. Voordat dat zo ver is heb ik waarschijnlijk alweer een nieuwe gekocht.

Beweegreden is voornamelijk een afkeer van verregaande integratie. Hoe meer zaken je in ÚÚn integreert, hoe minder keuze je hebt. Het tast de concurrentiepositie van alternatieven ook aan. Vroeger toen de north bridge nog heel veel taken had had je ook redelijk wat concurrentie op gebied van chipsets. Sinds er meer en meer on-die bij de CPU op komt is er veel minder keuze wat dat betreft. Ik vind dat zonde. Dus zo lang ik de keuze heb om dingen niet ge´ntegreerd aan te schaffen zal ik dat ook zeker doen ja.
Mijn mobo kan volgens mij dGPU taken via de mobo-vga aansluiting doorsluizen (ja ik gebruik nog VGA, don't judge me 🙈). Dus dan via een taskbar-icoontje de gpu omswitchen.

Onze meningen verschillen op het gebied van integratie. Ik merk dat meer integratie = stabieler en sneller systeem, maar daar zal jij waarschijnlijk anders over denken. Even goede vrienden. Ik probeer geen "afkeer" te hebben tegen van alles en nog wat. Als ik dat nog steeds zou hebben, zou mijn leven op dit moment veel minder leuk en makkelijk zijn. Maar nogmaals, dat is jouw keus, en jij zal er waarschijnlijk geen last van hebben! :)
Afkeer klinkt negatiever dan ik het bedoel ;) Ik heb een voorkeur voor niet-ge´ntegreerde oplossingen, dat klinkt een stuk beter.

Ik ben dan ook iemand die een losse camera, camcorder, mediaspeler en HTPC heeft. Smart TV is me te ge´ntegreerd en privacy-onvriendelijk, en te veel gericht op vervanging. Een smartphone heb ik wel, maar dan vooral als webbrowser en messenger.

Ik ben er zeker van dat mijn leven niet leuker zou zijn zonder deze keuzes gemaakt te hebben. Wellicht wel makkelijker, maar ik wil helemaal geen makkelijk leven, ik hou wel van uitdagingen. De makkelijkste oplossing is vaak niet de leukste. En ook niet de beste - voor wat extra inspanning (en investering) krijg je vaak wel kwalitatief betere graphics, video's, foto's, geluid en accuduur. Dat heb ik er graag voor over.
Hey, fijn om dat te horen! Ik discussieer meestal met mensen omdat ik zie dat ze extreem moeilijk doen vanwege rare ideeŰn zonder echte onderbouwing. Het klinkt alsof je duidelijk weet wat je wilt en ook weet wat er aan de andere kant van de deur is, maar je simpelweg deze kant van de deur wilt (if that makes sense..)! In that case: top, blijven doen! Ik ben het eens over bijvoorbeeld smart TV's; ik hoef al die latency, boottime, camera's en mics niet in m'n tv. Ik wil gewoon een display, ik hang er wel een Chromecast of ATV aan :) . Met andere dingen, zoals camera, gebruik ik die in mijn telefoon zit. Die is kwalitatief goed genoeg voor mij, mede dankzij dat ik een (toendertijd) dure telefoon heb gekocht (iPhone 6s). Ik ben een poweruser en had dus genoeg reden om deze telefoon te kopen. Hij kan 4k filmen, hoewel dat hoogstwaarschijnlijk veel lagere kwaliteit is dan jouw camera dat kan, maar het is goed genoeg voor mijn vakantiefilmpjes en videoprojectjes.
I guess what I'm saying is dat ik blijkbaar ook wat neigingen heb naar alles "los", maar dat ik dat niet als motto heb. Ik kijk wat het best bij me past en zoek alles uit, en jij doet dat ook, alleen wat meer.
Ik ben blij dat je serieus op me bent ingegaan, hier leer ik van. :)
En voor mij kon ik de igpu mooi gebruiken voor quicksync toen ik nog geen nvidea gpu had, dus het is maar net wat je doet met je spul. Dat is wel vaker een belangrijk punt waar veel mensen niet zo stil bij lijken te staan.
Toen ik mijn nieuwe GPU nog niet had heb ik mijn oude GPU er nog ingehouden. Die deed het nog goed genoeg. Fijn dat de mogelijkheid er is, dat wel. Zeker voor een kantoor PC heeft een discrete GPU ook weinig toegevoegde waarde.
Fout
Je hebt wel een keuze
Bij 7th generation Core/Kaby Lake/Skylake-X/Apollo Lake: alle varianten die eindigen op X
Bij 6th generation en eerder: alle varianten die eindigen op P

Ik veronderstel dat die voor 8th generation misschien ook wel nog gaan komen
Qua prestaties heb ik het over.
prestaties per watt doen ze nog niet zo slecht hoor,
het zijn alleen veel kleinere chips dan die van amd en nvidia.
en ja de drivers zijn ook wat minder, maar dat is ook omdat gamedevs niet gaan testen op chip die eigenlijk te traag zijn voor ze.

maar als ze dezelfde chip op zouden schalen zouden ze het niet zo verkeerd doen hoor.
Heb een 4-jaar (?) oude Intel HD4000. Zit in mijn MacBook Air early 2014. Ik gebruik dit ding dagelijks nog op mijn werk, en werkt perfect met een extern scherm (~3k denk ik), alles draait nog 60FPS. Dan heb ik het natuurlijk niet over games, maar ik kan wel af en toe een spelletje spelen (trackmania enzo, niet al te zwaar). Ik heb dit apparaat dan ook niet gekocht met het idee dat ik er hard op ga gamen, dan zou ik een laptop nemen met een dedicated GPU. Voor integrated GPU's zijn ze hartstikke goed, dus als je je apparaat gebruikt voor alles BEHALVE gamen, waarom zou je nog een dedicated GPU nemen?
3K is 1440p of?
Een HD 530 draait 2160p toch echt niet vloeiend af. Als in Visual Studio/Chrome.
Ik bedoel 3840x2160, en 1440x900 op mijn interne display. Chrome draait vloeiend, safari een stuk vloeiender (scrollen bij beide 60fps, maar safari is sneller klaar met laden en schokken, safari schokt eigenlijk bijna niet). VSCode draait prachtig, evenals JetBrains stuff. Misschien is het belangrijk om te weten dat ik macOS draai.
Nu ja, omdat je *alles* behalve gamen noemt zijn er vast wel genoeg use cases die bijv cuda / gpu acceleration fijn vinden zoals het renderen van het e.e.a. maar dan ben ik pedantisch aan het doen natuurlijk.
Jaaa natuurlijk ;) dat is te begrijpen. Ik denk alleen dat veel mensen flinke overkill in hun systemen hebben zitten (net als iemand die facebookt en whatsappt en emailt op hun telefoon maar wel de iPhone X nemen).
hij doelt natuurlijk op de zwaardere kaarten.
die iGPU's stellen niet zo heel veel voor nee.
Op een AMD apu kon je prima gamen in fullscreen HD 👍
Ze verkopen jaarlijks meer GPUs dan nVidia en AMD samen ook al zijn ze niet los te koop in de winkel.
Dat zijn geen GPU's, maar IGP's. Los daarvan is het een gouden greep van Intel om IGP's te gebruiken, waardoor ze niet afhankelijk zijn van een derde partij. Het gros van de gebruikers heeft namelijk ook niet meer grafische kracht nodig.
Waarom denk je dat Intel, Koduri heeft "gekocht"? ;)
Niet met geld maar met een complete afdeling en een ruim R&D budget. Verder heeft Intel een patentdeal met AMD. Het enige "probleem" is een nieuwe architectuur ontwikkelen, een driverstack voor deze architectuur, en deze ook geaccepteerd krijgen binnen de CUDA gedomineerde HPC markt. Dat is hier namelijk het doel. Intel ziet dat de desktopmarkt een goede bron van inkomsten is, maar in de HPC markt, daar valt geld te verdienen. Nvidia is hier zowat monopolist, AMD heeft de aanval geopend en heeft al wat tractie gekregen. Intel wil meedoen, en na een aantal mislukkingen zoals Xeon Phi gaan ze nu eigenlijk voor de GPGPU aanpak.
De intel 740 GPU was voor zijn tijd zeker niet slecht, dat ook een one-off. Qua patenten en directX ondersteuning zit het bij intel wel snor lijkt me, dus ben heel benieuwd..

Of die Raja de kennis in zijn hoofd zo maar bij intel op tafel mag dumpen, geen idee van, maar lijkt me heel interessant om te volgen.

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Samsung Galaxy S9 Dual Sim OnePlus 6 Battlefield V Microsoft Xbox One X Apple iPhone 8

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*