Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel toont losse DG1-videokaart voor ontwikkelaars

Intel heeft tijdens de CES een preview gegeven van de DG1, de, nagenoeg, eerste losse videokaart van het bedrijf. Het gaat om een kaart specifiek voor software-ontwikkeling, die niet als zodanig voor consumenten beschikbaar komt.

Intel stuurt samples van de kaart naar independent software vendors, die zo vast aan de slag kunnen met het optimaliseren van software voor Intels Xe-architectuur voor gpu's. Het is de bedoeling dat dit jaar Xe-gpu's op de markt komen als onderdeel van het Tiger Lake-platform voor laptops en als losse chip.

Tijdens een perspresentatie demonstreerde Intel de gpu bij een resolutie van 1080p op ongeveer 30fps, met de toevoeging dat het nog om vroege chips en drivers gaat. Intel verduidelijkte verder dat de DG1-videokaart dynamische tuning voor energiezuinige platformen gaat bieden en dat de kaart niet alleen voor gaming, maar ook voor grafische toepassingen is. Het lijkt er daarmee op dat het bedrijf zich in eerste instantie met name op gebruik voor laptops en de instapmarkt richt. Dat is geen verrassing: eind december verscheen al informatie dat de eerste implementaties van Xe over 96 execution units beschikken. Intels krachtigste geïntegreerde gpu is tot nu toe de Iris Pro Graphics P580, oftewel de GT4e, met 72 execution units, al is die gpu op een andere architectuur gebaseerd.

Intel verwacht de Xe-architectuur voor gpu's op den duur in te kunnen zetten voor een reeks producten, van low performance-toepassingen zoals zuinige laptops, tot high performance-workstations, datacenters en zelfs high performance computing zoals exascaleclusters.

Eind 2017 werd duidelijk dat Intel dedicated gpu's wilde gaan ontwikkelen, toen het een nieuwe Core and Visual Computing Group oprichtte, met Raja Koduri aan het roer. Die werkte daarvoor bij AMD Radeon. Overigens introduceerde Intel in 1998 ook al losse gpu's, de i740 en i752, maar die waren niet bepaald succesvol en Intel stapte toen al snel uit de markt voor dedicated grafische chips.

Intel DG1

Door Olaf van Miltenburg

Nieuwscoördinator

09-01-2020 • 18:03

45 Linkedin Google+

Reacties (45)

Wijzig sortering
Intel heeft tijdens de CES een preview gegeven van de DG1, de, nagenoeg, eerste losse videokaart van het bedrijf.
Overigens introduceerde Intel in 1998 ook al losse gpu's, de i740 en i752
Spreekt dit elkaar niet tegen?
Ja en nee, hoewel die i740 en i752/i754 door Intel geproduceerd en verkocht werden, was het ontwerp niet van Intel. Het ontwerp kwam van Real3D, dat een dochter ondernemen was van Lockheed Martin. Wegens het uitblijven van succes en royalties heeft Lockheed in 1999 besloten Real3D te sluiten, waarna Intel alle patenten en ontwerpen opgekocht heeft. Dit heeft vervolgens de basis gelegd voor alle geintegreerde graphics van Intel begin jaren 2000.

En zoals we allemaal weten is Larrabee nooit uitgebracht als videokaart.

Dus (afhankelijk van hoe je het bekijkt) is dit de eerste discrete videokaart, die volledig door Intel ontworpen is en geproduceerd/verkocht gaat worden.

[Reactie gewijzigd door knirfie244 op 9 januari 2020 20:59]

"Nagenoeg" geeft aan dat het niet de eerste is.
hoezo nagenoeg :
1) Bijkans 2) Bijna 3) Bijwoord 4) Bijwoord van graad 5) Compleet 6) Feitelijk 7) Genoegzaam 8) Haast 9) Inschijn 10) Min of meer 11) Nauwelijks 12) Omstreeks 13) Ongeveer 14) Praktisch 15) Quasi 16) Schier 17) Tamelijk goed 18) Temee 19) Temet 20) Vrijwel 21) Welhaast 22) Wijd 23) Zo goed als 24) Zo goed als geheel.
Wat een prachtig verwarrende titel van dit bericht weer (Intel toont losse DG1-videokaart voor ontwikkelaars). Het is dus niet een videokaart gemaakt voor het optimaliseren van software ontwikkeling, nee het gaat om een development sample dat bedrijven kunnen gebruiken om hun software te optimaliseren voor gebruik met de nieuwe Intel kaarten.
Helaas verder geen details over wat de kaart aan boord heeft in dit artikel (bron niet gelezen), maar het lijkt mij ook niet echt een consumenten kaart te gaan worden.
Sowieso heb je bij software ontwikkeling weinig aan een videokaart, tenzij rendering nodig is. Wat beter werkt is opschalen op CPU niveau aannemend dat je IDE goed schaalt op meerdere cores.
Er zijn inmiddels vrij veel (professionele) applicaties welke werken met GPU acceleration, waarvan mining van coins waarschijnlijk het meest bekend is. GPU's zijn zeer goed in bulk rekenwerk en het parallel uitvoeren van honderden berekeningen tegelijkertijd. De RTX2060 heeft 1920 cores en de XT5600 heeft 2300 cores. Nu is een GPU niet direct vergelijkbaar met een CPU core omdat deze niet alle CPU instructies ondersteunt. Er is een algemene stelregel dat als je je programma kan draaien op een embedded microprocessor (STM8/32 of Atmel AVR (bekend van de Arduino), je het ook op de cores kunt laten draaien van een GPU. AMD Stream and Nvidia Cuda is het framework waarbij je het programmeren van de units (GPU cores) door de driver/hardware laat regelen. Als je zowel rode als groene kaarten wilt ondersteunen kun je ook OpenCL inzetten welke vergelijkbaar met OpenGL een abstractie laag is, maar dan voor compute toepassingen..

ISV developers zijn meer integratie developers en staat los van je IDE omgeving. Het betreft dus niet je project compileren met je videokaart, maar de videokaart in je applicatie toepassen voor andere gebieden dan het tonen van user interfacing..
Ja, het is blijkbaar gewoon een development kaart. Optimaliseren is denk ik nog wat ver gegrepen, het gaat waarschijnlijk eerder over implementatie en interactie welke tot aanpassingen kunnen leiden. Het is immers de eerste keer dat ze samples doorsturen.
Ja, het is blijkbaar gewoon een development kaart.
Een kaart voor developers dus.... en wat is de nederlandse vertaling van developers... :)
Ontwikkelaar, ontwikkeling, voorontwikkeling dit waren alleszins de termen bij Philips, maar evengoed werden de termen development en predevelopment gebruikt en dit voor een Nederlands bedrijf. De eerste termen doen een beetje aan foto ontwikkeling denken. Dus ?
De eerste termen doen een beetje aan foto ontwikkeling denken. Dus ?
Je bedoelt photographic development?
De engelse vertaling voor ontwikkelen is gewoon to develop, of het nu om foto's of software gaat maakt niet uit.
Of hardware, het ding is de term development werd eerder gebruikt dan ontwikkeling.
Het is dus niet een videokaart gemaakt voor het optimaliseren van software ontwikkeling,
Dat staat niet in de titel, maar is een (foutieve) conclusie die jij trekt.
Vrijwel alle "hardware voor ontwikkelaars" is bedoeld om nieuwe software te ontwikkelen voor die hardware, het is een heel normaal proces.
Een voorbeeld.
nieuws: Foto van devkit PlayStation 5 verschijnt op Twitter
@ adje123 Laten we hopen van niet, het is nooit gezond als 1 bedrijf de markt overheerst. Daar worden wij als consument niet beter van, zowel voor prijsstelling als snelheid van innovatie. Het lijkt dat Intel toch langzaam maar zeker in gang schiet (na een lange tijd van sluimeren) en bepaalde marktsegmenten probeert aan te spreken om marktaandeel terug te winnen. Ze zullen waarschijnlijk eerst terecht door een dieper dal moeten gaan, waarbij alle lof aan AMD is om eerst Intel tegen de schenen te schoppen en dan te overtroeven.
Ben benieuwd of hier nog iets van Larrabee inzit, wat in feite een x86 compute unit was. Hoewel dat niet voor de huidige nvidia en amd gpu's geld, zien we toch steeds meer dat gpu's meer generic compute units worden met ook de mogelijk ze te gebruiken voor spelletjes, maar door opencl en cuda ook voor allerlei andere rekenintensieve taken, zoals modelling, rendering, raytracing of analysis. Dit komt de uniformiteit ten goede, waardoor het voor developers steeds eenvoudiger wordt op gpu te programmeren. Ook interessant om te zien welke api's deze DG1 gaat ondersteunen.
Hij brengt het een beetje knullig, maar wanneer is de laatste keer dat jij een nieuwe speler overleven in een markt die al netjes verdeeld wordt door 2 huidige spelers?

Ik denk dan in de recente geschiedenis dan aan Windows Phone in de markt van Android/Google en Apple.

[Reactie gewijzigd door Shaidar op 9 januari 2020 19:35]

maar wanneer is de laatste keer dat jij een nieuwe speler overleven in een markt die al netjes verdeeld wordt door 2 huidige spelers?
1996 3Dfx Voodoo 1 totdat ze failliet gingen... Daarvoor Intel/Ati die IBM/Intel van de troon stootte...

Ondertussen heeft Intel; al jaren de integrated graphics markt in handen en heeft Intel 3.5x de omzet van AMD en Nvidia SAMEN. Intel maakt meer winst dan AMD en Nvidia SAMEN aan omzet genereren.

Het is dus geen gevalletje van niet kunnen, maar tot op heden niet in willen investeren omdat de markt voor Intel gewoon niet zo heel groot was.
Dat is geheel correct, er was vooral ook geen reden voor, Intel was/is immers leading op bepaalde segmenten. Maar in de huidige marktomstandigheden is niks doen marktaandeel verliezen en daar zijn Intel en in het bijzonder de aandeelhouders wel gevoelig voor, hoe groot je omzet in verhouding ook was. Deze communicatie is dan in eerste instantie ook niet bedoeld voor de consumenten, maar eerder een statement als bedrijf.
De situatie in 1996 kan je zeker niet 1-op-1 vergelijken met vandaag 2019.
Klopt, maar die situaties van vroeger kan je niet doortrekken naar de huidige tijd...
Dat kan je altijd.
3dFX exclusief Retail markt. Loop je even wat achter rennen al die hardware entausiastelingen naar de concurrent. Een meer prof OE Matrox liep het ook slecht mee in de sletten game retail markt maar zij konden op hun Nice en vooral pro markt vallen.
ATI en nVidia hebben elk hun mindere jaren gehad maar hun OE activiteiten hield hun in de markt.
AMD heeft het geluk dat tij gekeerd is. uiteindelijk is ereserve ook eens op. En grote indicatie is het decimeren van de GPU Beleid. Wat na wat betere tijden weer mag aanzwellen.
En uiteraard de Console OE markt in leven hield aan dun draadje.
Ondertussen heeft Intel; al jaren de integrated graphics markt in handen en heeft Intel 3.5x de omzet van AMD en Nvidia SAMEN. ...
Het is dus geen gevalletje van niet kunnen, maar tot op heden niet in willen investeren omdat de markt voor Intel gewoon niet zo heel groot was.
Hoofdletters maken de stelling niet minder onnozel.

TSMC verkoopt 10x zoveel GPU's als Intel, is op de beurs meer waard dan Intel en werkt met GPU makers NVidia, AMD, Vivante, Imagination Technogies en Apple SAMEN. Apple heeft meer omzet dan Intel en NVidia SAMEN, dat geld wordt deels gepompt in de procesvoorsprong die Intel niet kan bijbenen. Intel 10nm en komend 7nm falen is typisch gevalletje niet kunnen, heeft niets met willen te maken.

Exact daarom lijkt Intel me vrij kansloos: Ze hebben duurdere, minder dichte en minder energiezuinige processen met lagere 'opbrengsten' dan de concurrentie. En ze moeten concurreren tegen AMD, NVidia en TSMC SAMEN.

Intel is een niche speler met dure niche-fabjes die op de meest geavanceerde processen niet eens massa productie kunnen draaien. Ca 5 Intel fabs draaien 500 SKU's op >=14nm, 2 fabs draaien slechts 5 (!) SKU's op 10nm.

IBM maakte 10x zo weinig servers als Intel PC's, daarom was IBM te duur (behalve voor mainframes en supercomputers) en verdwenen ze van de massa-markt.

Intel maakt 10x zo weinig CPU's /GPU's als TSMC, daarom is Intel te duur en het gevolg laat zich raden.

Als ze hun eigen proces dumpen en kiezen voor een geschikt massa-productie proces (TSMC dus) maken ze een kans, anders zijn ze wat AMD tot 2013-2018 was: Een leuk ontwerp bedrijfje, met oninteressante producten vanwege een niet competitief proces.
TSMC is toch een chipproducent die afhankelijk is van de opdrachten die ze van Intel, AMD, NVIDIA, Qualcomm etc. krijgen? dan kan je de omzet toch moeilijk vergelijken?

Of zeg ik nu echt iets doms?
Dat klopt, TSMC als fab haalt c.a. de helft van de omzet van Intel als geheel; en de fab van TSMC levert aan vele klanten; waaronder aan het rijkste technologie-bedrijf ter wereld: Apple.

Als je AMD met Intel zou willen vergelijken, dan is het appels met peren.
Je kan bij wijze van spreken ook zeggen dat Estland geen partij is voor Rusland, en dan lijkt het net alsof zo'n stelling klopt. Vooral als je de NAVO niet noemt.

AMD is een beetje als Estland en TSMC als de NAVO. "Rusland steekt veel meer geld in militaire middelen, dus als ze willen walsen ze Estland plat, want die hebben bijna geen budget".
Het is dus geen gevalletje van niet kunnen, maar tot op heden niet in willen investeren omdat de markt voor Intel gewoon niet zo heel groot was.
Voor Intel was het tot nu een kwestie van "schoenmaker blijf bij je leest". Waarom zou Intel een aparte GPU verkopen als ze ook een nieuwe CPU met alles ingebouwd en een ander prijskaartje kunnen verkopen.

Een iGPU is een manier om eerder bij de klant te zijn. Veel mensen willen een werkende PC en hebben in veel gevallen al genoeg aan een iGPU. Dus Intel is er al, voordat er aan AMD/nVidia gedacht kan worden. Extra bonus, mensen die toch een eGPU willen, moeten toch betalen voor die iGPU ondanks dat ze hem niet gebruiken.

Dus technisch gezien correct, Intel is groot in de iGPU's, maar dat komt omdat het ze groot waren in de CPU markt en het gaat om een stukje koppelverkoop.
De reden is dat voor bepaalde prof workloads Chip met 1000++ seder cores GPGPU het veel beter dan 32++ X86-64. Dus de prof computer markt. Dat is een OE gebeuren voor super computers. In andere disciplines zijn de zware fat cores van X86-64 beter, Dus Xeons zijn voor bepaalde toepassingen betere keus maar zonet dan gaat deal naar nV Server GPGPU.
Zoals Machine learning etc.

Als ze dan toch die richting gaan kunnen ze ook de Gamers markt bedienen.
3DFX was destijds met hun product de concurrentie ver voor. Er was geen vergelijkbare 3D kaart qua prestaties(beeldkwaliteit noem ik niet want 3DFX sjoemelde nogal een beetje). Toen direct3D voor kaarten van andere fabrikanten vergelijkbare ervaringen en meer ging bieden voor minder geld was 3DFX snel klaar.

Intel zie ik niet zo snel komen met een Geforce/Radeon killer. Ik zie het wel gebeuren dat de ervaring en ontwikkelingen van een nieuwe discrete GPU gaan gebruiken om hun onchip graphics te verbeteren.
Als je geduld hebt en je zakken diep genoeg zijn, of op gerelateerde markten een dominante positie hebt dan kan dat zomaar werken.

Intel voldoet aan al die voorwaarden.
Deed Microsoft dat ook niet?
Tuurlijk had MS genoeg geld daarvoor, echter niet de visie en de wil (doorzettingskracht) om daar mee verder te gaan. Intel heeft ook al vaker in de losse GPU markt gepootjebaad, de vraag is of deze keer wel doorzetten of niet. Gezien de concurrentie op de CPU markt ziet Intel nu wellicht de tijd daar om hier verder mee te gaan als gehele concurrent van AMD... ;-)
Het verschil is natuurlijk wel dat Intel in feite niet een nieuwe speler is, al aan computerhardware werkt, eigen fabs heeft en een gigantisch R&D budget heeft.
Volgens mij waren het juist apple en google die nieuw in een markt binnen kwamen die gedomineerd werd door Microsoft en Nokia (en wellicht nog wat andere spelers)
Nee, de markt was er niet, dat was het probleem. De "PocketPC" van 2002, een organiser die kon bellen, draaide een voorganger windows mobile.. Maar slechts een enkel directielid liep er mee rond.
Hij brengt het een beetje knullig, maar wanneer is de laatste keer dat jij een nieuwe speler overleven in een markt die al netjes verdeeld wordt door 2 huidige spelers?

Ik denk dan in de recente geschiedenis dan aan Windows Phone in de markt van Android/Google en Apple.
Intel is reeds marktleider in de desktop/laptop markt dankzij hun IGP's (geïntegreerde videokaarten in de cpu).

Als we puur naar gaming kijken dan is het nvidia die met de scepter zwaait. Volgens steam hebben ze 80.51% marktaandeel, tegen 11.89% voor AMD en 7.447% voor Intel. Qua omzet doet Nvidia ongeveer 10 miljard waarbij het gros uit de geforce markt komt. Heel AMD, dus inclusief Ryzen, consoles, enz doet ongeveer 6 miljard.

[Reactie gewijzigd door sdk1985 op 9 januari 2020 22:09]

Ik denk dat de situatie hier toch anders is, bij Windows Phone was Microsoft afhankelijk van de meewerking van derden (ontwikkelaars). in deze markt is er een standaard API (DirectX of Vulkan) waar Intel in kan haken om meteen een werkend product te hebben met 100% van de markt.

Vergelijk dit met de situatie als Android/iOS apps ook meteen werkten op Windows Phone zonder enige verandering, dan was het wel anders gelopen met het platform.

Daarnaast hebben ze al enige ervaring met GPU's in hun CPU's die helaas wel wat achterlopen met features, maar dit is een prima manier om deze achterstand in te lopen.
Even de andere kant op denken dan was je er al. Apple in een markt die was verdeeld tussen Nokia en Microsoft.

Chrome in een markt die was verdeeld tussen Microsoft en Mozilla.

Er zijn genoeg voorbeelden van duopolis die doorbroken worden.

[Reactie gewijzigd door TechSupreme op 9 januari 2020 20:08]

Dus? Rare opmerking man.
Oh sorry ik wist niet dat er een arbitraire tijdslimiet op zat. Binnen welke tijdspan wil je het hebben dan kom ik wel met andere voorbeelden.
Als de aandeel houder er binnen 5jaar dikke winsten willen zien of je geeft kans om in 10 a 15 jaar je markt te kunnen op bouwen. Tja dat groot risico
dus meer kwestie ga je voor de lange adem.
Of kies je eieren voor je geld.

Mogelijk ook door markt onderzoeken van eigen afdeling in markt wat al zwaar getaxeerd is met moordende concurrentie inde gevestigde orde.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True