Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intels komende losse grafische high-end chip verschijnt in 2020

De discrete gpu waar Intel aan werkt, komt in 2020 uit, zo heeft het chipbedrijf bekendgemaakt. De gpu moet het bedrijf een betere positie op de markt voor kunstmatige intelligentie, gaming, machine learning en grafische ontwikkeling geven.

Intel bevestigt dat de grafische chip in 2020 verschijnt zonder verdere details te geven en alleen te verwijzen naar het bericht uit november vorig jaar, toen bekend werd dat AMD Radeons Raja Koduri bij Intel aan de slag ging om aan gpu's te werken.

Op de groeiende markt voor machine learning en kunstmatige intelligentie wint Nvidia marktaandeel met zijn Tesla-accelerators en ook de markt voor high-end videokaarten voor gamen en het minen van cryptovaluta floreert. Deze bedient Intel met zijn ge´ntegreerde gpu's niet.

De grafische chips waar Koduri en zijn team aan werkt moeten hier verandering in brengen. De gpu's zouden intern de codenamen Arctic Sound en Jupiter Sound dragen.

Door Olaf van Miltenburg

Nieuwsco÷rdinator

12-06-2018 • 20:46

89 Linkedin Google+

Reacties (89)

Wijzig sortering
Poging twee op deze markt. Hopelijk een groter succes dan de Intel i740 uit 1998 :)
Dit is tenminste poging 3. Er was namelijk ook poging 2, Larrabee, die in 2010 werd gestaakt. Daar is wel Xeon Phi uit voortgekomen: https://en.wikipedia.org/wiki/Xeon_Phi (waar je kan lezen dat die Larrabee texture processors had).
De 740 is denk ik ontwikkeld tot die embedded GPU.
Klopt, de i740/752 series flopten destijds. Heb nog zo'n AGP kaart gehad (i740 Tiger genaamd geloof ik) en dat was echt niet zo geweldig, ATi en Nvidia maakten er gehakt van. Is later in de chipsets terecht gekomen, 810/820 serie dacht ik. (kan het mis hebben, is al zo lang geleden, we praten nog over Pentium iii processoren)
Die chipsets hadden in elk geval wel versies met graphics aan boord. Intel was zo dom om daar de naam "extreme graphics" aan te geven. Dat heette dus meteen "extremely slow graphics".
Ah, die herinner ik me nog goed, aangezien ÚÚn van mijn vrienden er zo eentje had. Het zag er wat mooier uit dan software rendering, maar snel was het niet. We noemden het toen lachend een graphics decelerator :*)
Op een Pentium III systeem met een i810 chipset was de grafische driver onder Linux zo onstabiel dat de computer iedere keer bleef hangen. Daarom moest ik een aparte videokaart (volgens mij een Ati Radeon 7000) erin doen om een beetje fatsoenlijk te kunnen werken. Tegenwoordig werken de Intel drivers, voor zover ik weet, wel naar behoren.

Maar ik gebruik op mijn laptop alleen de discrete Nvidia Quadro M1000, omdat Optimus naar mijn weten onder Linux (nog) niet werkt.
Werkt op zich wel, alleen heel wat minder confortabel dan onder Windows. Althans dat was de laatste keer dat ik het probeerde😩
Het ligt eraan hoe je het bekijkt, maar in feite is het wel de tweede poging op deze markt met een zelf ontwikkelde GPU.

De i740 werdt dan wel door intel geproduceerd en verkocht, maar was niet door intel zelf ontwikkeld. Het ontwerp was van de 3D afdeling, Real3D, van Lockheed Martin. Deze afedeling is later wel overgenomen door intel, maar dat was na het stop zetten van de i740/i750.
Wat verlang ik soms terug naar de AMIGA die bestond uit een aantal speciale chips, die elk een aparte taak uitvoerde, M$ begon zo'n 25 jaar geleden al met de nodige dingen te kopieren (lees jatten) van AMIGA.
Die kaart is volgensmij aardig populair geweest
Omdat het een betaalbaar dingetje was dat enige 2D/3D weergeven kon. Performance was anders. Daar moest je vaak een 3DFX kaart voor hebben en zo'n Intel Accelerator was dan ideaal.
Iets dergelijks heeft Intel zo'n 10 jaar geleden al eens geprobeerd onder de naam Larrabee maar is toen niets geworden. Nieuwe ronde, nieuwe kansen.
Larrabee is niet eens op de markt verschenen.
Ik was hier bij de presentatie echt heel enthasiast over, maar helaas heeft Intel zijn belofte over Laberree nooit waar gemaakt.

Ik hoop dat deze kaarten echt iets nieuws op de markt brengen, hoewel ik mijn hart wel vast houd.
Intel heeft al eens eerder chipmakers geweerd van zijn platform, wat als ze straks Intel-only aansluitingen maken, en er Intel-Only systemen komen. (Als Intel dit zou kunnen hadden ze dit tenslotte allang gedaan, de slechte PR die ze hier mee maken zijn mensen na een paar jaar wel weer vergeten. Intel blijft toch wel verkopen)
Allereerst: Larrabee heeft tijden de snelste supercomputers gepowered, Daarnaast was Larrabee een zeer belangrijk studieproject waar intel al tijden de vruchten van plukt, waaronder de aanstaande discrete GPU, maar ook Xeon PHI is/was daar een direct resultaat van. Larrabee was ook toen al een speciale aangelegenheid, een X86 gebaseerde multicore GPU, een knap staaltje werk, zie ook bij Linus:

https://www.youtube.com/w..._continue=4&v=um-1fAVU1OQ

Mooi stukje hardware. Larrabee is uiteindelijk nooit echt gecanceled, maar de mederwerkers mochten na elke (5x!) canceling weer verder met het project als studie ;)

[Reactie gewijzigd door millman op 12 juni 2018 22:52]

Grappig ik moest aan het zelfde filmpje denk. ik kwam dat filmpje van linus paar dagen geleden ook tegen. maar inderdaad het is nooit voor consumenten op de markt gekomen. Het idee achter de chip vind ik wel heel gaaf en ook is de chip zeker succesvol geweest voor intel zelf zou als je al zei voor de xeon phi als voorbeeld.
Ze hebben het midden jaren '90 geprobeerd met de i740 en dat was ook niet bepaald een succes te noemen :P
Toevallig: Tom Forsyth, die ik volgde vanwege zijn werk bij Oculus, was reeds weer bij Intel begonnen waar hij voorheen aan Larrabee had gewerkt.
Ben ook erg benieuwd wat deze dan gaat kosten gezien de concurrentie op die markt best fors is. Maar een beetje extra concurrentie voor de andere 2 kan geen kwaad ;)
De concurrentie fors? Er zitten 2 spelers in die markt...
Het werd weer eens tijd dat er een bij kwam, hopelijk kan intel het aan zodat de prijzen eens naar beneden kunnen.
Dat er maar 2 partijen zijn hoeft niet te betekenen dat de concurrentie niet fors is.

Imago bepaald ook wat, en Nvidia is gigantisch. Het word voor Intel lastig maar niet onmogelijk.
Combineren met een cpu, en het geheel als de gaming cpu/gpu aanbieden? Geen moeilijk gedoe met externe kaarten etc etc.
Je bedoelt een APU?
Als het die kant op gaat miet Intel ook een dealtje kunnen maken met de console en laptop bouwers.
Ik denk dat het een flinke innovatie boost zal geven. Zoals al meer in deze discussie gezegd ligt de ontwikkeling redelijk stil. Het wordt tijd voor vernieuwing en differentiatie.

Op gebied van machine learnig is een hoop te halen. Het berekenen van features en trainen van de classifiers zal met betere (meer toegespitste) hardware een stuk complexer kunnen worden waarmee betere/naukeurigere classificatie wellicht mogelijk wordt.
Ik vind het vergezocht. In feite suggereert het dat een stuk computerhardware tot op vandaag onder de maat presteerde omdat het zichzelf niet goed genoeg kende. Wat is er "hardware" aan machine-learning en wat maakt dat superieur aan software die hetzelfde doet?

Volgens mij zal dit hetzelfde eindigen als de eerste hardware MPEG-decoders. In no-time ingehaald door software dankzij waarschijnlijk de wet van Moore die ervoor zorgt dat rekenprestaties exponentieel verbeteren door verveelvoudiging van aantal transistoren per vierkante millimeter. Alternatieve toegespitste hardware-architectuur heeft maar zeer beperkt de kans om er commercieel gezien iets van te maken. Uiteindelijk winnen de FLOPS altijd. Zelfs met dezelfde functionaliteit bovenop een virtuele softwarelaag die een flink percentage rendementsverlies betektent is het nog steeds enkel een kwestie van niet zo heel veel tijd.

[Reactie gewijzigd door blorf op 13 juni 2018 08:22]

Wat er hardware aan machine learning is, is matrixvermenigvuldigingen. Dat is superieur aan softwrae omdat hardwrae efficienter de data kan ophalen, verwerken en terugschrijven. Software-implementaties moeten op general-purpose hardware draaien, of anders op GPU's. Die zijn niet geoptimaliseerd voor de precieze toepassing.

Je MPEG voorbeeld is bepaald ongelukkig gekozen, omdat H.264/H.265 decoding een voorbeeld blijft van hardware offload. Video is gangbaar genoeg om special-purpose hardware te rechtvaardigen.
Qua aantallen zijn de concurrenten inderdaad niet fors, maar nVidia en AMD hebben samen veel kennis en ervaring in deze markt en opereren kwalitatief op hoog niveau. Ben ook benieuwd of Intel zich in het hoger segment kan gaan meten met deze 2 spelers. Ik denk het haast wel, als er een bedrijf is dat deze middelen heeft is het Intel.
Meer qua prijs bedoel ik, omdat er slechts 2 zijn zijn de prijzen fors...
Je hebt geen verwijzing naar het geld staan dus verwijs je naar de concurrentie dus nee dat zeg je niet.
Maar het is vooral 1 bedrijf, meestal is het nvidea die AI doet in oa de autos, dus intel is zeer welkom.
Begrijp niet waarom jij -1 krijgt.
Als we met z'n allen A gaan roepen, en vervolgens zeggen dat we B bedoelen, een beetje a la Trump, moeten er mensen zijn die dat corrigeren en liefst ook heel duidelijk. Er is al genoeg miscommunicatie in de wereld.
Lijkt me echter waarschijnlijker dat Intel proberen zal om beter dan nvidea te worden en dan de volle mep te vragen.
Ja en het zijn ook gelijk de 2 grootste die er zijn. Dus ja..wel degelijk concurentie
Wat veel belangrijker is, zijn de mensen die er aan werken. Het duurt even voordat je GPU expertise hebt. De mensen die het hebben zitten bij de grote 2. Als je er niet zit, wil je er zitten.

Ieder bedrijf heeft zijn "primaire expertise". Bij Intel is dat niet GPU's. Je staat er met je GPU kennis dus altijd lager op de ladder.
Wat veel belangrijker is, zijn de mensen die er aan werken. Het duurt even voordat je GPU expertise hebt. De mensen die het hebben zitten bij de grote 2. Als je er niet zit, wil je er zitten.

Ieder bedrijf heeft zijn "primaire expertise". Bij Intel is dat niet GPU's. Je staat er met je GPU kennis dus altijd lager op de ladder.
Intel maakt al jaren redelijk degelijke drivers voor de IGP's. Verder is er natuurlijk talent aangetrokken, waaronder Ati/AMD oudgedienden.
Mwa verwacht er zo goed als niets van.
Het zou mij HEEEL erg verbazen als deze dingen ook maar 65% van een gtx 1070 halen.
Er zijn er een paar geweest die het geprobeerd hebben maar het is gewoon een lastige markt om binnen te dringen,
Intel heeft in elk geval geld, een bekende naam, kennnis van drivers en chipontwerp en toegang tot top-end productieprocessen. Als er ÚÚn partij is die dit kan is het Intel.

Wil niet zeggen dat t lukt maar ik kan geen partij met betere kansen bedenken.
Toen Intel de i740 uitbracht waren de verwachtingen hoog want Intel had het geld, de ervaring en de middelen om een goed product neer te zetten. Ding viel tegen en is toen keihard geflopt. Grafische chips zijn en heel andere tak van sport dan processors, AMD had dit door een kochten destijds ATI ervoor op.
Klopt maar we zijn inmiddels heel wat jaren verder en Intel heeft heel wat meer ervaring met GPU’s.

Wil niet zeggen dat het nu wel lukt maar ze hebben goede papieren.
Dat hadden ze toen ook, dat is juist mijn punt ;) Aan de andere kant, juist omdat Intel destijds behoorlijk op zijn muil gegaan is en sindsdien alleen maar low grafische chips heeft gemaakt zijn de verwachtingen nu heel erg laag. We zullen het zien, zolang ze niet AMD uit de markt drukken is wat extra tegendruk tegenover Nvidia altijd welkom, dat bedrijf begint de laatste jaren gewoon erg enge trekjes te krijgen omdat ze zo'n sterke marktpositie hebben.
De "software"divisie van Intel mag wel een force upgrade krijgen met meer "cores", "betrouwbare cache" en een meer toekomstbestedinge "socket 8".

Hoeveel fouten en incompatibiliteit dat vooral Intel drivers met wireless modules, bluetooth modules, embedded GPU met diverse versies van Windows 10. Denk aan 1803 en de HD 600 series.
Het nooit / niet zo frequent drivers uitbrengen zoals NVIDIA of AMD/ATi. Denk aan alle netbooks met GMA3600 die door Intel laksheid nooit naar Windows 10 konden upgraden. Of sommige Intel HD x000 GPU's van nog geen 1,5 jaar oud waar geen Windows 10 voor kwamen en komen (Bron )

En dan nog de Intel Management Engine, vol met bugs en ongewenste rotzooi in de chip, wat niet meer te omzeilen valt. Alsof Intel een slaaf is van de NSA.
Bron
En nu ook kennis van AMD ingehuurd. ;)
Voor sommige mensen is dat al meer dan voldoende, helemaal als de prijs ook bescheiden is.
.
Goede zaak dat er nog een grote speler die markt betreed, kan alleen maar innovatie bevorderen en prijzen verlagen :)
Intel heeft ingezien dat AI en Machine Learning (wat quasi synoniemen zijn) the next big thing is waar sloten met geld kunnen verdiend worden. Gaming is in de ogen van de 3 bedrijven op een zijpad gezet, wat bij Nvidia het duidelijkst is.
Maar of we zo blij moeten zijn met Intel.
Tis tenminste wel een speler met geld
S3 heeft het nog geprobeerd tot 2010 of zoiets maar dat wilde niet echt. XGI heeft het ook geprobeerd met de Volari reeks laatste wat ik las. Beide bedrijven zijn gewoon geflopt met hun producten.

Het is nu niet zonder meer dat omdat het Intel is dat ze slagen. Het is een markt waar consumenten erg kritisch zijn. Reviews zullen je keihard afbranden op prijs, drivers en fps. Is 1 aspect niet op orde staan de meutes 12-18 jarigen klaar met pek en veren en dag dag verkopen en hallo voorraad waar de straatstenen je voor bedanken.

Geld brengt je maar zover, ze zullen wel betere kansen hebben dan menig ander bedrijf.
Matrox Millenium, Sis en nog een paar.

Maar uiteindelijk zijn Radeon(nu AMD) en Nvidea overgebleven. Door faillissementen en opkopem welliswaar, maar ze zijn er niet meer.

Intel moet het nog laten zien, maar met hun kapitaal zouden ze de andere 2 kunnen aandringen verder te gaan dan alleen rebranden en doorontwikkelen.
Het was ATI voordat AMD het overnam. Radeon is altijd de merknaam van de consumenten Graphics geweest van ATI en later AMD.

Ik was altijd fan van ATI. Veel betere sVHS uitgangen en de all in wonder kaarten waren heerlijk on een multimedia PC mee te bouwen.

[Reactie gewijzigd door mjl op 13 juni 2018 00:49]

Jammer dat iedereen hier de Voodoo vergeet.
https://m.youtube.com/watch?v=ociCY-EKuV8
De 3dfx voodoo kaart was dan ook eigenlijk geen zelfstandige videokaart, maar een 3d acceleratie add-on kaart die je moest door lussen met je eigenlijke videokaart (hoewel er later ook kaarten van verschillende leveranciers zijn uitgekomen waarbij de twee gecombineerd werden)
Uiteindelijk zijn ze overgenomen door Nvidia, die een aantal technieken in hun Gforce kaarten verwerkte.
Ja die ook nog meegemaakt inderdaad, maar dat is weer ver voor de ATI kaarten waar ik naar refereer.
Ik haakte in op al die opsommingen, vandaar ook iedereen, trouwens de Voodoo3 en later waren allemaal standalone kaarten. Ik heb nl zelf nog een V3 met orginele verpakking.
Voodoo was echt een revolutie, althans voor mij toen ik nog gamede.
Ha dat was inderdaad wat. Een bevriende collega van me had er 1 - had meteen een heleboel nieuwe vrienden.

Ik klooide zelf wat meer aan met video editing, nog een kaart gehad met opsteek modulles voor moet en mjpeg. moest je ook doorsluisden voor de video overlay. Leuk ding .. iets van’Fast multimedia’ geloof ik..
Tja, dat weet je dan toch ook van tevoren. Als jij bij de ontwikkeling al weet dat je gpu het af gaat leggen tegen de concurrentie op het prijspunt waar je ze voor in de winkel kunt leggen, dan ben je nog niet klaar met ontwikkelen en moet je geen voorraad gaan produceren die je niet kwijt komt.
Makkelijk gezegd maar als je bij het einde budget ben en er is gewoon geen rek meer omdat je zakken echt leeg zijn, moet je gaan produceren. Als je genoeg heb ge´nvesteerd moet je wel iets gaan verdienen en het risico dus maar nemen. In geval van XGI en S3 heeft de gok niet geloond. Bij beide was het denk ik meer de zeer rukke drivers ipv de prestaties die te weinig waren voor het geld, al heeft dat laatste niet geholpen. Als je wat langer op de markt ben en een bepaalde fanbase heb opgebouwd kun je je wat missers veroorloven die toch wel worden gekocht door een zekere groep ook al laten de meeste dat product schieten.
Ik denk niet dat Intel snel met lege zakken zal zitten.
Als ze er maar genoeg R&D in stoppen, komt er vanzelf wel een goede GPU uit. Vraag is alleen, tot hoever willen ze gaan.
Zeer goed nieuws als je het mij vraagt, de gaming-markt kan heel goed een derde speler gebruiken. Zeker nu 1 speler een gevaarlijk groot marktaandeel begint te krijgen.
Het marktaandeel is al bizar groot. En GPU gaat niet alleen over gaming.
Beeldbewerking, AI, machine learning, supercomputers, mining en nog veel meer....
Een goede zaak, wat concurrentie zou de zaak eens op scherp kunnen zetten. Er gebeurt maar bar weinig op de GPU markt, vrijwel jaarlijks worden rebranded kaarten op de markt gebracht. Jaar op jaar zien we rebrands, bijvoorbeeld: Radeon 78xx -> 79xx -> R9 2xx -> R9 3xx. Vervolgens wordt er overgestapt naar 14mm polaris, ok, maar de RX 4xx serie wordt vervolgens weer lekker gerebrand naar 5xx serie. Nu hebben we dan met Vega eindelijk iets nieuws, maar laten we eerlijk zijn met mijn R9 270 speel ik vrijwel elke goed geoptimaliseerde moderne game nog prima op 1080p. Hoeveel jaar zijn we inmiddels verder? 5! :O Er zijn tijden geweest dat je met een kaart van 3 jaar oud vrijwel geen enkel nieuw spel nog fatsoenlijk kon spelen.

Tel daarbij op dat de prijzen voor gpu’s ronduit idioot zijn. 5 jaar geleden kocht ik mijn R9 270 voor Ą180, als ik voor dat geld n˙ een nieuwe kaart koop kom ik op de 1050 GTx TI van Nvidia... een kaart die nauwelijks sneller is dan de R9 270!!! Dat betekent dus dat mijn kaart in 5 jaar tijd vrijwel niet in waarde gedaald is.

Je zou bijna zeggen hier moeten een aantal mededingingsautoriteiten eens gaan onderzoeken of er geen prijsafspraken worden gemaakt.
Ook op het gebied van monitoren veranderde er lang niet veel maar nu 4K monitoren steeds betaalbaarder worden zal de vraag naar krachtigere videokaarten ook aanwakkeren.
Games draaien nu op 1080p erg soepel maar op 4k heb je toch weer een stuk lagere framerates.
Jaar op jaar zien we rebrands, bijvoorbeeld: Radeon 78xx -> 79xx -> R9 2xx -> R9 3xx.
Klopt niet helemaal. 78xx en 79xx waren de zelfde architecture, Tahiti, maar de 78xx was een downgraded versie er van. 78xx was voor de "performance" markt en de 79xx was voor de "high-end" markt.

De R9 390 was wel een rebrand van de R9 290, de Haiwaii architecture, maar het productie proces was dusdanig verbeterd dat de kaart sneller was, hogere bandwidth had en een lagere release prijs.
5 jaar geleden kocht ik mijn R9 270 voor Ą180, als ik voor dat geld n˙ een nieuwe kaart koop kom ik op de 1050 GTx TI van Nvidia... een kaart die nauwelijks sneller is dan de R9 270!!! Dat betekent dus dat mijn kaart in 5 jaar tijd vrijwel niet in waarde gedaald is.
Dit is niet echt waar. Ik heb zelf 2 R9 290 van Sapphire (factory OC) in crossfire, en ik merk toch echt met moderne games dat ze het niet helemaal kunnen bijhouden, zelfs met een lichte OC van mijn kant er boven op. De prestaties zullen zeker achter blijven met oudere kaarten wanneer er vergeleken word met moderne kaarten, helemaal bij de nieuw aankomende "standaarden/preferenties". De prestatie van oudere AMD kaarten zullen wel een kleine boost krijgen in DX12 en Vulkan, maar dan nog steeds niet de nieuwe kaarten bij houden, zeker niet op hogere settings.

Edit: Architercture info aan de r9 toegevoegd.

[Reactie gewijzigd door Galaxydj op 13 juni 2018 07:47]

ook de markt voor high-end videokaarten voor gamen en het minen van cryptovaluta floreert.
GPU minen heeft toch geen zin meer sinds er ASIC's zijn?
Zijn verschillende crypto's gemaakt dat asic's er niet goed mee werken. Maar gelukkig is de mining craze bijna over. En beginnen de video kaart prijzen weer te dalen.
Bitmain heeft anders wel een Ethereum ASIC die binnenkort uitkomt, misschien dat SiGNe daar op duidde?
Hopen dat deze gpu's freesync ondersteuning bieden, mochten ze op gaming gericht zijn.
Intel heeft een tijdje geleden al geprobeerd graka's te maken. Pas geleden heeft LTT er nog een prototype weten te bemachtigen Dit is uiteindelijk Xeon Phi geworden.

Op Techradar had ik tevens ook ooit gelezen (nu weer opgezocht natuurlijk) dat Intel al een prototypen van een graka heeft.

Dus ik ben wel benieuwd ;)

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S9 Dual Sim Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True