Gerucht: Intel maakt in december meer bekend over zijn Arctic Sound-gpu - update

Intel houdt volgens een gerucht in december een conferentie over de architectuur voor losse gpu's waar het bedrijf aan werkt. Het bedrijf heeft volgens DigiTimes een onderzoekscentrum voor gpu's in Canada geopend en wil een tweede r&d-faciliteit in India starten. Update: Intel ontkent.

Tijdens de conferentie gaat chiparchitect Raja Koduri, die het gpu-project bij Intel leidt, een update geven over de technieken die het bedrijf gebruikt en de vooruitzichten van het bedrijfsonderdeel, claimt DigiTimes, dat goede bronnen binnen de Taiwanese techindustrie heeft, maar er met geruchten ook regelmatig naast zit.

Intel werkt onder de naam Arctic Sound aan een losse, high-end gpu, die het bedrijf voet aan de grond op de markt voor grafische rekenkracht moet geven. De gpu moet in 2020 gereed zijn en voor de ontwikkeling heeft Intel tal van bekende gpu-technici aangetrokken, waaronder Koduri, die voorheen bij AMD aan Radeon-gpu's werkte.

Intel is met zijn in de processor geïntegreerde gpu wel marktleider, maar de grafische chips zijn over het geheel een stuk minder krachtig dan die van AMD en Nvidia. Volgens de laatste marktcijfers van Peddie Research zag Intel zijn leveringen van gpu's in het afgelopen kwartaal ten opzichte van het kwartaal ervoor stijgen met 13,1 procent, met name door gestegen leveringen voor laptops. Intels marktaandeel nam daardoor toe met 1,5 procent. De leveringen van desktopvideokaarten met losse gpu's daalde met 19,21 procent, met name omdat er minder kaarten voor het mijnen van cryptovaluta werden geleverd.

Hoewel gpu's voor het mijnen van cryptovaluta afgelopen jaar minder populair zijn geworden, wil Intel met zijn losse gpu's waarschijnlijk de lucratieve gamemarkt bedienen en gpu's als accelerators voor zakelijke toepassingen in kunnen zetten. Hier pakt Nvidia met zijn Tesla-kaarten marktaandeel van Intel af, omdat bedrijven steeds vaker gpu's in plaats van Xeon-processors inzetten voor datacentertaken, zoals berekeningen voor kunstmatige intelligentie.

Update 19:55: Koduri ontkent op Twitter dat hij een update gaat geven op de conferentie.

Door Olaf van Miltenburg

Nieuwscoördinator

28-11-2018 • 17:51

50

Reacties (50)

Sorteer op:

Weergave:

Zo hoop ik dus dat er eens flink tegengas wordt gegeven aan Nvidia en dus de concurrentie zorgt voor betere support vanuit Nvidia (bv. nog steeds geen Drivers voor Mojave) en de prijzen van hun GPU's ook maar eens mogen dalen.

Helaas blijkt dat AMD de concurrentie niet aankan kwa performance. ;(
Je hebt gelijk en ik hoop dat AMD wat meer gas zal even en veel concurrentie zal leveren, maar het hoeft ook niet altijd aan performance te liggen, maar het kan ook liggen aan het juist gebruiken van de prestaties of optimalisatie.

Een Apple computer of laptop zou anders ook gewoon voor Nvidia gaan. Als het alleen zou gaan om prestaties.

Een RX Vega 64 heeft 12.6 Tflops en een GTX 1080 9Tflops en een GTX 1080 is in de meeste games alsnog sneller.

Benchmarks van Hardware Unboxed:
https://www.youtube.com/watch?v=cJFm51OFcNA

Verder vind ik het onjuist om alleen te kijken naar prestaties. Er zijn meer factoren die een rol kunnen spelen in de markt zoals: Het imago van een bedrijf, prijs/kwaliteitsverhouding, klantenservice, beschikbaarheid en prijs per land, efficiëntie (Nvidia heeft hier ook een voordeel), de band tussen Nvida en leveranciers en de band van Nvida en andere bedrijven en dan zijn er nog oneindig veel andere variablen.

Ik ben ook benieuwd naar wat Intel op de markt zal brengen, want ik vind meer keuze voor de consument altijd een pluspunt. Meer concurrentie zorgt over het algemeen voor betere producten voor de consument, een voordeligere prijs en leidt vaak ook tot meer innovatie, omdat bedrijven elkaar voor willen blijven. Zo wordt de markt voor een PC of Laptop nog interessanter. Ik ben benieuwd.

[Reactie gewijzigd door TonyZh op 23 juli 2024 07:01]

Conclusie: Tflops zeggen niets an zich.
...maar AMD biedt in het middensegment volgens mij wel de beste qualiteit-prijsverhouding, b.v. met de RX 570. Die heb je al voor €155, en hij komt zelfs enigszins in de buurt van de GTX 1060, die begint bij €210. In een aantal nieuwe spellen met DX12 is hij zelfs sneller.
Het probleem is dat de meeste consumenten dit allemaal geen snars boeit. Ze zijn liever onwetend en omgeven in rijkdom dan dat ze zien wat de menselijke kosten zijn achter hun goedkope electronica en goedkope kleding. af en toe komt het voorbij in het nieuws maar het leid nooit tot echte verandering.
Ik denk dat op videokaart gebied AMD het eigenlijk flink verknalt heeft met de RX serie. De kaarten waren lange tijd nauwelijks te verkrijgen. Zijn inderdaad minder snel dan de GTX 1080 serie, en zijn volgens de pricewatch eerder iets duurder dan iets goekoper. Daarnaast kwam deze ook bijna een jaar later uit.

Met de 580/590 serie is AMD ook nogal zoekende, heethoofden met een techniek die echt op het einde is.

Op processor gebied concurreerde AMD lange tijd niet op performance, maar wel op prijs. Nu weet ik niet echt wat de strategie van AMD is. Ik hoop dat ze met iets moois komen, want meer concurrentie is natuurlijk welkom. Ben ook benieuwd wat Intel aan het doen is. In laptops gebruiken ze nu AMD GPUs, maar op desktop gebied willen ze nu dus toch weer een GPU maken?
Verkoopt Apple eigenlijk wel Nvidia hardware?

En AMD kan de concurrentie makkelijk aan. Een RX580 presteert beter dan een 1060. Toch is de 1060 iets van 5x beter verkocht. Het gaat meer om de mindshare. Mensen kopen nou eenmaal liever intel+nvidia.

In het hogere segment waar een stuk minder kaarten worden verkocht kunnen ze de concurrentie niet aan.
De RX580 presteert minimaal beter en is eigenlijk een aangepaste versie van de RX480 (steekt er bij mij in) met een hogere klok.
Voor mijn 2 zonen heb ik echter geopteerd voor de 1060, het verschil in verbruik per kaart (110 watt) tegenover de RX580 is behoorlijk veel op lange termijn.
Ik neem maar aan dat je 110 watt in totaal bedoeld en niet 220 watt...

Het verschil tussen een 480 en 1060 is maar 40 watt ofzo... Volgens TPU..

Oei, 580 verbruikt idd wat meer dan ik in gedachte had...

[Reactie gewijzigd door Zeara op 23 juli 2024 07:01]

Ik denk dat hij de 580 bedoelt: https://www.hardwarezone....nsumption-overclocking-45 Daar kan wel een dik verschil in zitten.
Zoals je bij een recente test kan zien, zit er zelfs flink verschil tussen Rx580 kaarten!

[Reactie gewijzigd door MeMoRy op 23 juli 2024 07:01]

Ik bedoelde idd de 580, (de 480 heb ik zelf). Bijkomende probleem in het ontwerp van de 480/580 is dat die niet alleen via de psu maar ook teveel via het moederbord zelf onttrekken waardoor bepaalde moederborden ansich niet echt geschikt zijn voor de 480/580 is mij verteld.

[Reactie gewijzigd door El_Bartholomew op 23 juli 2024 07:01]

Dat was in het begin, AMD heeft dat opgelost in een driver update. Dit kan alleen problemen opleveren als de PCI Express slot op het moederbord niet aan de specificaties voldoet.
Komt ook omdat elke bozo, van Tweaker tot winkel verkoper de afgelopen 10 jaar blind Intel en Nvidia zat aan te bevelen. Terwijl AMD voor 90%+ van de consumenten al die tijd een prima (en goedkoper) alternatief is geweest.

Het is soms echt alsof we gemonopoliseerd willen worden.
AMD is inderdaad vaak een paar tientjes goedkoper in aanschaf, maar je moet je stroom er ook bij rekenen. Vooral als je veel gamed en niet elke 2 jaar upgrade, dan is Nvidea toch vaak aantrekkelijker.
Daarvoor moet je nogal veel uren maken wil dat een significant effect hebben. Nogal wat maanden 24/7 gamen.

AMD en Nvidia berekenen TDP totaal verschillend.

De GTX 960 met een TDP van 120 die gewoon 240w gebruikt bv.
De GTX 760 met een TDP van 170 die rustig 300w vreet.
https://www.bit-tech.net/...-960-review-feat-asus/10/

Zo'n enorm verschil is er niet in TDP.

Beetje net als Intel vs AMD. Intel heeft een lagere TDP, niet vreemd als je een -groot- deel van het verbruik wegwerkt in het mobo i.p.v. de chip.
Hmm maar in vergelijkingen tussen systemen zie je toch wel dat dr RX 570 en 580 flink meer stroom verbruiken dan de GTX 1060? Overigens heb ik zelf net een 570 besteld...
Met 20cent per kwu moet je kaartje toch een 500+ uur maxxen wil je het verschil in prijs een issue vinden.

Mocht je die hard gamer zijn die uren per dag bezig is met de zwaarste spellen,kan het een rol spelen.
Toch niet per se 'die hard'? Een kWh kost nu al gauw vijfentwintig cent, en de prijzen stijgen, zowel door belasting als door energiemarkt. Als je twee uur per dag een intensief spel speelt, en je plant vier jaar met je kaart te doen, en de kaart bij intensief gebruik tachtig watt meer gebruikt dan een andere, dan zit je al op een totaal verschil van 0,080 kW x 2 uur x 365 dagen x 4 jaar x €0,25 = €58.40.

Als je tien jaar met je kaart doet zoals ik (of hij doorgeschoven wordt naar een familielid/huisgenoot) wordt dat €146.

Als je ook nog eens twee uur videobewerking doet wordt dat €292.

En dan heb ik het nog niet over het verbruik bij browsen en minder zwaar gebruik: als je dat nog eens zes uur per dag doet en het verschil is daarbij 20 kW, dan moet je er nog eens €109,50 bij optellen over tien jaar en kom je op totale extra kosten van €401,50.

Dit scenario is wellicht hoger dan de gemiddelde gebruiker. Maar echt 'die hard' zou ik het toch ook niet willen noemen?

[Reactie gewijzigd door Cerberus_tm op 23 juli 2024 07:01]

De RX580 is toch massaal gebruikt voor mijnen. Vandaar dat die nu ook massaal gedumpt worden. Je hebt al een tweedehands RX580 8GB voor 150 euro. Dat is een goede prijs-performance verhouding.
Nee Apple verkoopt geen nvidia hardware (meer). Of dit door de GPU problemen in macbook pro's komt is de meest voorhanden reden, aangezien Apple de schuld bij nvidia legt. Als je wat van Louis Rossman zijn content kent is dat waarschijnlijk niet eerlijk van apple tegenover nvidia gezien, maar goed dat is mijn maar mijn mening/gedachte.

De laatste native supported was de 700 series, mijn GTX760 draait beter dan mijn 980TI onder macOS. Ook zijn er blacklisted nvidia drivers die gewoon niet te draaien zijn zo slecht, en we wachten al maanden op een nieuwe release die Metal2/Mojave support. Het is zeker niet de grootste markt; maar we praten nog steeds over een markt die over het algemeen meer high-end stuff koopt.
Nog even terugkomen op mijn voorbeeld. Ten eerste image van een bedrijf. AMD is lang niet meer echt een concurrent geweest. Dus koopt de gemiddelde persoon die niet zoveel kennis heeft van hardware van Nvidia, maar een RX 580 is niet altijd sneller dan een 1060 dat is onjuist, omdat bepaalde games gewoon betere optimalisatie hebben voor Nvidia zoals Fortnite. Het ligt echt aan het doel waarvoor een GPU wordt gebruikt.

Ten tweede gebruikt Apple geen Nvidia GPU's meer voor hun laptops. De reden waarom dat zo zou zijn, weet ik niet.
Reden daarvoor is waarschijnlijk de defecten met de Nvidia GPU’s in MacBook Pro’s van 2011 waar Nvidia niet voor wilde opdraaien.
(Zie het reparatie programma voor deze macbooks dat Apple destijds heeft ingelast om geaffecteerde gebruikers te compenseren)
Laatste model van Apple was uit 2011, dus nee: ze verkopen het niet meer.
Wat ze wel verkopen is een Mac Pro waar ik een GTX1080 op heb aangesloten, maar even lekker kon downgraden vanuit Mojave naar High Sierra, omdat Nvidia te gierig is om Apple te betalen, zodat drivers gesigned worden...
Zelfs Highpoint Drivers worden native ondersteunt omdat daarvoor door de developers wordt betaald.
Nee komt omdat de RX580 tot voor kort slecht verkrijgbaar was door de mininggekte en hij daardoor ook enorm duur was. Nvidia had dat probleem minder. Zij hadden minder leverproblemen waardoor de 1060 gemakkelijker te krijgen en minder duur was, vandaar dat er meer 1060 dan 580's verkocht zijn. Ik denk dat de 1060 ook significant beter presteert in sommige games zoals GTA V.
Maar als performance de enige factor was was het enige automerk op de snelweg Aston Martin. Er zijn meer factoren welke uiteindelijk tot een keuze door de consument leiden.
Dat is dan weer een erg scheve vergelijking, puur en alleen al omdat er één of twee ordes grootte verschil in prijssegment in zit.

En voor een auto is iets snel "genoeg" qua performance. Voor GPUs gaat het allemaal veel sneller is en is een bepaald performance level veel sneller al niet meer genoeg, helemaal nu ze RT een ding proberen te maken, we kunnen nog lange tijd voordat we "genoeg" performance hebben om volledig op RT in te zetten.
Bij een auto zijn er meer factoren bij een gpu koop je deze eigenlijk op basis van prijs/snelheid verbruik zal soms ook meespelen en driver ondersteuning. Snelheid zal echter voor vele de belangrijkste factor zijn.

Kijk je naar kleding dan kopen vele dit soms puur voor het merkje.
Een polo van 20 euro of identiek dezelfde voor 60 euro met merkje.
Aan de andere kant komt hij dan bij intel te liggen die zo dus nog meer macht krijgt.
Nou dat komt omdat AMD 3 Kwart van het personeel op het PlayStation 5 project heeft gezet. Dus het was een bewuste keuze om niet te concurreren jammer genoeg.
ik zie anders toch echt een VEGA56 voor maar 355 euro in price watch staan, dan heb je notebene 6x video outputs en freesync2. Mocht ff de tijd nemen om em under te volten, dan schaf je zo 50watt van het verbruik af+hogere performance.

Vcore van 1200mv naar 1100mv , en geheugen van 800mhz naar 900mhz , werkt bijna altijd.
Ik kan een 3e speler alleen maar toejuigen, zeker als deze 3e speler de financiele middelen heeft om de gpu wereld eens blauw te laten kleuren.

Moeten ze niet de Intel cpu prijzen gaan hanteren, dan wordt het weer een lastig verhaal.
Wel grappig dat de 3e speler (S3 Graphics) door toedoen van Raja Koduri niet meer GPU's uitbrengt :P
Hoezo dat?

S3 graphics is juist eruit geconcurreerd door Nvidia omdat ze niet mee konden met Geforce.

ATI zat toendertijd voornamelijk in de OEM markt

En er waren wel meer 3e spelers, Imagination Technologies had de Kyro en Matrox was toen nog actief.
Nou dat is wat er gezegt wordt. Raja had een on uitvoerbare roadmap met dual quad en octacore GPU's gemaakt. En een jaar later ging hij weg. Alles geannuleerd en S3 stopte met Mid Range videokaarten maken. Weg derde speler.. En sinds dien maken ze alleen integrated Graphics..
Ja maar dat kwam dus niet door Raja maar door Nvidia.

S3 was zelfs eerder op de markt dan Nvidia met de Geforce maar mede doordat S3 brakke drivers had kon die nooit de performance halen die geclaimd werd en heeft Nvidia succes geboekt met Geforce.
Rood, groen en nu blauw erbij. Haha, leuk toch die kleurtjes! :P
Dat is natuurlijk geen toeval maar psychologie. AMD is zelfs van kleur gewisseld; van groen naar rood. Zo zijn de tegenstellingen maximaal en kun jij je nog beter met jouw 'tribe' associëren.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 07:01]

Gezonde concurrentie die op dit moment op alle fronten ontbreekt. Ben benieuwd wat dit gaat worden. Als AMD nou ook nog eens met betere kaarten kan komen zou dat vast en zeker resulteren in schappelijkere prijzen.

[Reactie gewijzigd door Enyalios2011 op 23 juli 2024 07:01]

AMD is helemaal niet slecht op de compute markt integendeel zelfs. Men vergeet vaak dat de Nvidia game kaarten compute zwak zijn op de hogere FP bitwaarden...juist om de game performance niet nadelig te beïnvloeden met overbodige circuits die beter aan game performance besteed kunnen worden.

AMD heeft echter zijn compute en gaming architectuur zowat gelijk gelaten uit gebrek aan R&D budget.

Alleen het was Nvidia die de compute markt aangeboord heeft en daardoor een leiders positie heeft.
Je kan wel constant roepen om lagere prijzen maar fabrikanten hebben wel een gezonde marge nodig om fatsoenlijke R&D te kunnen doen.

Daarnaast is een GPU best groot en heb je veel kosten voor zo een kaart zoals het RAM en drivers.

Terwijl bij CPU's Intel voor alleen de CPU al gelijkwaardige bedragen of meer kan vragen en alleen de CPU levert zonder drivers, RAM of een printplaat.

Nvidia en AMD hebben juist dat geld keihard nodig want als Intel deze markt ook in handen krijgt zijn ze niet meer te stoppen.
Die "gezonde marge" hebben ze ook wel met schappelijkere prijzen. Ik snap ook wel dat ik niet een goeie videokaart van 100 euro hoef te verwachten maar de huidige prijzen van de RTX kaarten slaan helemaal nergens meer op. Als je dat zelf niet ziet heb je een behoorlijke plaat voor je kop.

[Reactie gewijzigd door Enyalios2011 op 23 juli 2024 07:01]

Als dat zo zou zijn dan had Nvidia wel veel meer winst kunnen maken.

De gaming videokaarten worden namelijk niet aan een grote markt verkocht, mensen die dat soort videokaarten kopen zijn behoorlijk beperkt.

En daar moet dan miljarden R&D in gestopt worden.

Waarom denk je dat AMD niet kan meekomen met Nvidia? Omdat ze niet dezelfde budget in de R&D kunnen stoppen.

Daarnaast worden die kaarten gebakken bij de nieuwste proces van TSMC en worden de snelste RAM gebruikt.

Als je dat niet inziet heb je een behoorlijke plaat voor je kop.
Wel weer bijzonder dat ze een videokaart de naam Arctic Sound geven... Zal het een koele herrie schopper zijn? :+

Ben benieuwd wat ze ervan gaan bakken. Tegen de tijd dat ze het goed doen (vast niet de eerste lichting kaarten) en de CPU problemen van Intel ook weer opgelost zijn, gaan we weer eens het Intel-only kamp proberen.
Te hopen dat het een "working title" is, want om de naam 'Sound' te gebruiken bij een grafisch product lijkt me marketingtechnisch niet heel erg handig.
dit is nou een heel mooi bericht voor ons de consumenten
"Hoewel gpu's voor het mijnen van cryptovaluta afgelopen jaar minder populair zijn geworden, wil Intel met zijn losse gpu's waarschijnlijk de lucratieve gamemarkt bedienen en gpu's als accelerators voor zakelijke toepassingen in kunnen zetten."

Van deze zin kan ik geen kaas maken. Wil Intel nu GPU's voor de games markt en de accel markt maken? Dat lijk mij ook want meer markten zijn er niet. coins minen met GPU's is dood als een pier.
Ah! Ik proef weer patentenoorlog ;-)
Heel spannend allemaal en goed om te horen! Toch denk ik niet dat ze veel beter gaan kunnen dan Nvidia. Ook ben ik bang dat de kaarten zeker niet veel goedkoper zullen zijn intel kennende.

Maar we zullen het zien!
Ik kon dit er zo nog over vinden, interessant om eens bekeken/gelezen te hebben kan ik melden:
Nvidia, AMD, and Intel: How They're Competing in the GPU Market = betreft een .pdf bestand.

"Intel is looking to develop its own discrete GPUs for a wide range of computing segments. It has
even hired AMD’s GPU head Raja Koduri to do it. Its new Core and Visual Computing Group headed by Koduri is developing a dedicated GPU code-named Arctic Sound that’s expected to hit the market by 2020. Intel has learned from AMD and Nvidia what it takes to develop a successful GPU. Intel is thus not focusing just on the hardware but is also releasing new drivers that optimize its GPUs for the latest games in order to encourage customers to remain loyal to the brand. Koduri indicated on Twitter that Intel realizes the importance of software in the graphics ecosystem and is making efforts on that front. It’s important to note that Nvidia’s GPUs are popular because of their CUDA environment that makes GPU deployment easy. Like Nvidia and AMD, Intel is also resorting to marketing to build the hype around its new GPU. Intel hired Chris Hook, senior director of Global Product Marketing, to do the job. Intel has created a new Twitter account, Intel Graphics, where it published a video revealing its new discrete GPU in a faint hue of blue."

Op dit item kan niet meer gereageerd worden.