Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel Xe-gpu's voor datacenters krijgen hardwarematige raytracing-ondersteuning

Intel geeft zijn komende Xe-videokaarten voor datacenters hardwarematige ondersteuning voor raytracing. Of datzelfde gebeurt bij Xe-videokaarten voor consumenten is nog niet bekend.

Intel noemt de hardwarematige ondersteuning voor raytracing kort in een blog over opensourcesoftware binnen het Intel Rendering Framework. Intel heeft het specifiek over functionaliteit die te gebruiken is bij zjin renderingsoftware, maar het ligt voor de hand dat de hardwarematige ondersteuning ook ingezet kan worden voor games, zoals Nvidia dat doet met zijn RTX-videokaarten.

In de blog staat niets over videokaarten voor consumenten, maar het is bekend dat Intel daar aan werkt en als de Xe-architectuur hardwarematige ondersteuning heeft voor raytracing, lijkt het aannemelijk dat dit ook naar videokaarten voor gamers komt. Intel zou verschillende versies uit kunnen brengen, met en zonder hardwarematige raytracingondersteuning. Nvidia doet dat ook met zijn Turing-videokaarten.

Sony maakte onlangs bekend dat de Navi-gpu in de PlayStation 5 ook raytracing ondersteunt. Het is nog niet bekend of dit om hardwarematige ondersteuning gaat. AMD komt in het derde kwartaal van dit jaar met videokaarten op basis van de Navi-gpu. Die worden in ieder geval goedkoper dan de Radeon VII en dus ook goedkoper dan de RTX 2080 en 2080 Ti.

Intel Xe-gpu's zullen in ieder geval gebruikt worden in een Amerikaanse supercomputer, die in 2021 opgeleverd moet worden. Intel wil eerder al een videokaart voor consumenten uitbrengen, dat zou in 2020 moeten gebeuren. Eind 2017 nam Intel Raja Koduri in dienst, die dat jaar vertrok bij AMD. De oud-topman van de Radeon-afdeling heeft bij Intel de leiding over de gpu-divisie.

Door Julian Huijbregts

Nieuwsredacteur

02-05-2019 • 08:02

26 Linkedin Google+

Reacties (26)

Wijzig sortering
Dit kan wel lekker zijn voor content creation. Raytracen qua games heeft een wat trage start maar bijv in Octane is een RTX in de beste gevallen 180% sneller dan met raytracing features uit. Zie: https://www.pugetsystems....1384/#Analysis&Conclusion

Waar ik wel bang voor ben is dat intel ook tegen CUDA op gaat lopen..

[Reactie gewijzigd door maratropa op 2 mei 2019 09:11]

" The “real” Intel datacenter business, which is comprised of server chjps, chipsets, motherboards, whole servers, various network adapters and switches, flash and 3D XPoint memory, FPGAs, some IoT wares, and some systems software and compilers, is also smaller than AWS and, importantly, is not a complete systems business in that Intel doesn’t really control a software platform such as Linux or Windows Server and their virtualization and container extensions so much as provide the chippery that others use to build hardware that in turn runs this systems software. "


https://www.nextplatform....ms-business-in-the-world/

Intel is een niet innoverende monolitische one-trick-pony
Laat de prijzenoorlog voor consumenten GPUs maar beginnen.
Ik vind Intel te rustig wat betreft hun uitingen over hun GPU dus volgens mij hebben ze niet een GPU kunnen maken die Nvidia van de troon kan stoten en misschien zelfs niet kan tippen aan AMD.

Dus ik denk dat die prijzenoorlog er voorlopig niet komt, denk dat Intel nog wel 2 of 3 generaties nodig heeft voordat ze echt iets krachtigs tegenover Nvidia en AMD kunnen neerzetten.

Even wachten tot 2022 dus.
Ik vind Intel te rustig wat betreft hun uitingen over hun GPU dus volgens mij hebben ze niet een GPU kunnen maken die Nvidia van de troon kan stoten en misschien zelfs niet kan tippen aan AMD.
Volgens mij omdat ze nog geen werkende chips hebben. Zoals bekend heeft Intel zelf produktieproblemen met het verkleinen van de transistors, het produktieprocede van chips. 10nm laat al jaren op zich wachten en de vooruitzichten laten geen hoopgevend nieuws zien, helemaal niet als je hoort dat concurrenten TSMC en Samsung al op 7nm bezig zijn, dit proces aan het verbeteren zijn en al bezig zijn met 6nm en 5nm en kleiner op de nog langere termijn, en dat de concurrenten AMD en nVidia wel gebruik maken van deze nieuwste technieken. Om hiermee te concurreren kan Intel geen GPU's op hun 14nm+++ of 10nm procede uitbrengen en moet het dus ergens anders gaan kijken.
Zo'n 2 weken geleden was bij de buren van HWI een geruchtartikel, Raja Koduri die het Xe-team voor Intel leidt, is bij Samsung gespot. Het gerucht is om de Xe-chips op Samsung's 5nm? procede te laten bakken.

https://nl.hardware.info/...ete-xe-gpus-te-produceren
Voor die massaproductie onderzoekt Intel mogelijk of de chipfabrieken van Samsung de discrete gpu's kunnen produceren. Intel topman Raja Koduri, die het Xe graphics team leidt, bezocht onlangs een chipfabriek van Samsung in Zuid-Korea, net na de aankondiging dat Samsung klaar is voor productie op 5nm EUV. Het ziet er dus naar uit dat Intel de mogelijkheid aan het onderzoeken is om zijn Xe discrete gpu's bij Samsung te laten fabriceren.
Hoe dan ook, om weer terug te komen waarmee ik deze reactie begon, Intel heeft mijn inziens nog geen werkende chips en daarom horen we ook niets. Maar ik vermoed dat het ontwerp al wel zo goed als af is en dat men kan beginnen met het produceren van de eerste testchips.

[Reactie gewijzigd door Rudie_V op 2 mei 2019 11:17]

Van de troon stoten, bedoel je hiermee de meeste gpus verkopen of de snelste maken?

Het is leuk dat je de snelste gpu kan maken voor een niche markt, of gewoon focusses op het segment wat het meest verkocht wordt, en laat dat nou net zijn wat intel doet.

Maar het zou wel leuk zijn als er 3 grote komen die een GPU oorlog starten, krijgen we mooie snellere apparatuur voor redelijke prijzen.
Het gaat niet alleen om de snelste te maken maar ook om in te stappen in de nieuwe markten die GPU's mogelijk maken.

De hele reden dat Intel nu graag een GPU wilt is juist dat er nieuwe markten ontstaan en er daar veel geld valt te verdienen.

Want de grootste marktaandeel met GPU's hadden ze al dus daar verandert er toch niks.

Ze moeten echter nu wel meekomen met Nvidia omdat ze zelf ook wel inzien dat ze anders op een gegeven moment niet relevant meer zijn in een deel van de markt of op termijn zelfs in zijn geheel.
Van de troon stoten, bedoel je hiermee de meeste gpus verkopen of de snelste maken?
Moeilijk voor te stellen dat je niet weet op welke troon Nvidia zit.
Nvidia van de troon stoten? Intel is al jarenlang de grootste GPU maker. Leuk dat Nvidia betere prestaties levert, maar als Intel er in slaagt degelijke GPUs te maken zullen ze nog dominante worden en ik weet niet of dat wel zo goed zal zijn.
Intel is alleen de grootste GPU maker omdat een Nvidia/amd in een server geen enkele nut heeft en veel laptops/pc's standaard met een ingebakken intel komen.

Als Intel nog wat beter wordt kan het zeker handig zijn mbt Nvidia, omdat deze dan druk krijgt om de prijzen te verlagen. Immers, Intel is dan al snel goed genoeg en Nvidia zal daadwerkelijk zijn prijs moeten rechtvaardigen.
Intel is alleen de grootste GPU maker omdat een Nvidia/amd in een server geen enkele nut heeft en veel laptops/pc's standaard met een ingebakken intel komen.
Geen enkel nut? Vergis je niet; er zijn legio toepassingen waarbij fatsoenlijke GPUs in servers worden geplaatst. Denk aan machine learning, maar ook letterlijk het versnellen van grafische performance bij bv 3d-renderen of zelfs RDP / Citrix. Zoek maar eens op Nvidia Tesla. Het zal geen héle grote markt zijn, maar hij is er zeker, en hij groeit ook.
En vergeet Google Stadia en concurrenten niet. Ik verwacht dat we binnen 10 jaar toch echt meer en meer via servers gamen als de input lag daalt. En het blijft niet bij gamen.
Google stadia gebruikt AMD GPU's, niet NVIDIA of Intel, dus AMD zal samen met de partnerschap van Sony ivm CPU en GPU in de PS5 ook nog wel tijdje meespelen.. Ze tippen wel nog niet aan de performance van een NVIDIA kaart, daarnaast is hun control panel een enorm drama.
De input lag daalt pas als de lichtsnelheid hoger komt te liggen. :+

Onder die 45ms round-trip tijd binnen Nederland (3 frames op 60FPS) ga je niet komen, zelfs niet als Google meteen een beeld terug kan sturen zonder enige tijd nodig te hebben voor berekeningen.
Servers zitten juist geen Intel gpu's in aangezien die cpu's geen igpu hebben. Vaak hebben servers een of ander super simpel video chipje als "gpu".

Wanneer servers wel gpu's hebben zijn dit eigenlijk juist altijd Nividia of AMD gpu's.
Deze GPU's zijn allemaal iGP's .

Wat betreft dedicated GPU's en de prestaties van de igp's zijn ze nog kansloos.
de prestaties van Intel igpu's zijn voor het grootste gedeelte van de markt ruim voldoende. Het groepje mensen dat hier niet voldoende aan heeft is juist een grote minderheid.

Als ik een schatting moet maken heeft zo'n 90% van de machines (laptops / desktops) die ik zakelijk beheer voor diverse relaties geen dedicated gpu maar gewoon enkel een Intel igpu.
Iets waar ik totaal niet op reageer.

Ook al heb je gelijk.
Als er beeld is, heeft het grootste deel wat ze nodig hebben.
Idd wordt hoog tijd. Ik heb gisteren nog eens gekeken in de Pricewatch hoeveel een RTX 2070 kost en die zit nog altijd niet onder de €500. Duidelijk orders gekregen van Nvidia om de prijs niet onder de €500 te laten zakken dus. Ik koop geen videokaart voor meer dan €500 en begrijp niet dat andere mensen dat wel doen.
sinds de i740 was 't niks. Knight Landing was een crash. dus. dat.
Intel en GPUs is gewoon geen succes, monolitische one trick pony hut.
Toch kijk ik deze keer uit naar wat Intel te bieden heeft op grafisch gebied. Als ze voor consumenten zuinige en goedkope chips kunnen produceren, zie ik er nog wel een aantal in oudere computers met onboard/integrated graphics verdwijnen.

Maar voor nieuwere computers, waar dat veel minder een issue is, zullen hun kaarten moeten concurreren met die van Nvidia en AMD. En niet alleen op grafisch gebied, maar ook wat betreft AI/ML/DL. Daar heeft Knights Landing het ook totaal moeten afleggen tegen Nvidia's producten, dus ik ben benieuwd of ze deze keer wel kunnen concurreren.

Weet jij trouwens hoe de prestaties van Intel processoren zich verhouden met die van Nvidia en AMD op het gebied van AVX512 en of VNNI bijvoorbeeld de moeite waard is tegenover toolkits die gebruik maken van GPU cores? Ik begin een beetje het idee te krijgen dat Intel wanhopige pogingen doet om te concurreren tegen Nvidia door zoveel mogelijk in hun dure Xeon processoren te integreren.
Dank je @psychicist voor je reactie :)

Software stacks abstraheeren en commoditiseren het onderliggende platform. Intel, die van zichzelf geen noemenswaardige software stack anders dan wat drivers voor zijn hardware producten, heeft sinds de i740 die boot gemist en zit nu echt aan de onderkant waar de klappen vallen.

AVX512 is een ontzettend mooie instructie die schreeuwt om uitbreiding en een bijbehorende verticaal gerichte software stack. Daar heeft Intel zich wederom zichzelf in de voet geschoten: AVX512 is een premium instructie. En zichzelf daarmee gediskwalificeerd. Daarom zijn er nog niet zo veel benchmarks van; want geen echte software ondersteuning en een beperkte hardware stack die dit ondersteund.

Scenario's waarin AVX512 mooi kan gaan schijnen is in OpenCL. Maar ook daar is het akelig stil.

https://www.sisoftware.co.uk/tag/avx512/

" As with anything, simply doubling register width does not automagically increase performance by 2x as dependencies, memory load/store latencies and even data characteristics limit performance gains – some of which may require future arch or even tools to realise their true potential. "
Oh ja Intel is alleen goed in CPU's... iGP's, chipsets, netwerkkaarten, SSD's en de vele andere succesvolle producten die ze maken zijn geen succes, echte one trick pony :+
Met zoveel geld te besteden is het maar goed ook dat ze zulke dingen ook nog kunnen maken maar als je naar het hoeveelheid geld kijkt dat ze verdienen is het eigenlijk best weinig wat ze brengen.

De mobiele telefoon markt hebben ze moeten laten liggen en Itanium was ook een flop en GPU's konden ze ook heel lang niet meekomen.

Intel had inmiddels een soort Samsung moeten zijn maar om een of andere reden komen ze niet veel verder dan CPU's waarmee ze geluk hebben dat die markt nog goed draait want anders was het echt voorbij.
Ik denk zelf dat het hele GPU verhaal nog maar pas is begonnen. Je ziet al meer en meer GPUs in datacenters verschijnen. Momenteel vooral ingezet voor AI en ML, maar ook de komst van GPU databases kan een interessante ontwikkeling zijn.
Naast de x86 cpu atchitectuur is het hebben van een aantal alternatieven goed voor de ontwikkeling. GPUs en ARM zijn daar een goed voorbeeld van.
Intel heeft of geleerd van hun eerdere GPU falen en wil nu de verwachtingen niet al te hoog laten op lopen om uiteindelijk met een net niet goed genoeg GPU op de markt te komen, of Intel wil het achterste van haar tong nog niet laten zien omdat men vreest dat NVidia en AMD dan eerder aan een reactie kunnen werken en Intel misschien zelfs wel overschreeuwd zou kunnen worden in marketing uitingen ten tijden van de launch van hun nieuwe GPU.

Kijkend naar de mensen die Intel heeft aangenomen en de tijd die ze hebben gehad om aan een geheel nieuwe GPU te werken in combinatie met het budget dat intel beschikbaar heeft gemaakt voor het werk zou het me niet geheel verbazen als Intel met een erg goede GPU op de markt komt. Voor al ook omdat Intel er voor gekozen heeft om mensen met veel ervaring op bepaalde posities te zetten en voor zo ver je dat van buiten het bedrijf kan zien is ze ook zeer weinig politieke onzin in de weg gelegd waardoor ze zich echt kunnen focussen op het werk.
Aan de andere kant dit is het bedrijf dat bijvoorbeeld de Itanium processor heeft verziekt en dat hun XScale processoren verkocht hebben ondanks dat het ze met wat kleine aanpassingen een kans had kunnen geven op de mobiele telefoon en tablet markt, maar politieke onzin binnen het bedrijf heeft ook dat voor ze verpest.

Het zou dus ook zo maar kunnen dat men gewoon weer een embedded GPU heeft gemaakt die niet of nauwelijks capabel is om iets anders dan een budget kaart van AMD of NVidia bij te houden. Meer ik het het idee dat de mensen die Intel heeft aangenomen al lang weer vertrokken zouden zijn als ze deze kan op zouden gaan met de hardware.

Ik heb goede hoop dat Intel dus gewoon haar mond houd over wat de GPU echt kan doen, en dat de sporadische berichten over een geweldige nieuwe GPU van Intel misschien niet alleen fans zijn die hopen dat maar mensen zijn die op de een of andere manier informatie gehad hebben die Intel liever nog even niet naar buiten brengt.


Om te kunnen reageren moet je ingelogd zijn


OnePlus 7 Pro (8GB intern) Microsoft Xbox One S All-Digital Edition LG OLED C9 Google Pixel 3a XL FIFA 19 Samsung Galaxy S10 Sony PlayStation 5 Smartphones

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True