Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Mogelijke specificaties van losse Intel DG2-videokaarten voor gamers verschijnen

Er zijn mogelijke specificaties van Intels komende DG2-videokaarten met Xe-HPG-architectuur verschenen. Deze gpu's zijn gericht op gamers in het enthousiast-marktsegment en zouden in 2021 uitkomen.

De specificaties zijn afkomstig vanTwitter-gebruiker OneRaichu, die vaker informatie over Intels komende DG2-chips deelt. De leaker deelt de nieuwe informatie in een gecodeerde tweet, die vervolgens door een andere Twitter-gebruiker werd ontcijferd.

Volgens de uitgelekte specificaties komt Intel met zes verschillende DG2-modellen, die met verschillende geheugencapaciteiten beschikbaar zouden komen. De meest high-end gpu zou beschikken over 512 execution units en 4096 shading units. Die videokaart zou beschikbaar komen in varianten met 8GB of 16GB GDDR6-geheugen op een 256bit-geheugenbus. OneRaichu noemt ook modellen met 3072, 2048, 1536, 1024 en 768 cores.

Afbeelding via VideoCardz

Er zijn daarnaast meer details over een DG2 384EU-gpu verschenen. Dat zou een relatief kleine chip zijn met een oppervlak van 190mm². VideoCardz publiceerde een afbeelding van deze chip, die wordt voorzien van zes geheugenchips en volgens de website zou concurreren met de Nvidia GA106-gpu uit de GeForce RTX 3060 en de komende Navi 22-gpu's, die AMD op 3 maart introduceert.

Intel gaf tijdens zijn Architecture Day in 2020 al enkele details over zijn DG2-gpu's. Zo maakte toenmalig ceo Bob Swan bekend dat deze komende chips geproduceerd worden bij een externe foundry. Volgens geruchten zouden de chips op een 6nm-procedé van TSMC gemaakt worden. Dit is echter nog niet officieel bevestigd. Verdere details zijn ook nog niet bekend. Zo is het niet duidelijk of de gpu's bedoeld zijn voor desktops, laptops, of beide. Intel bracht vorig jaar een losse Xe Max-gpu voor laptops uit en introduceerde later een Xe-gpu voor desktops.

Intel besteedt de productie van zijn Xe-HPG-gpu's uit aan een externe foundry

Vermeende Intel Xe-HPG DG2-specificaties
Model Shading units Geheugen Geheugenbus
Xe-HPG 512EU 4096 16GB/8GB GDDR6 256-bit
Xe-HPG 384EU 3072 12GB/6GB GDDR6 192-bit
Xe-HPG 256EU 2048 8/4GB GDDR6 128-bit
Xe-HPG 192EU 1536 4GB GDDR6 128-bit
Xe-HPG 128EU 1024 4GB GDDR6 64-bit
Xe-HPG 96EU 768 4GB GDDR6 64-bit

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Daan van Monsjou

Nieuwsposter

27-02-2021 • 15:12

79 Linkedin

Reacties (79)

Wijzig sortering
Met 256-bit geheugenbus en 4096 shaders verwacht ik mid-range snelheden.
Ala 3060.
Ik ben erg benieuwd naar benchmarks...
Geen slechte keuze voor een eerste product, massa is kassa. En de Nvidia xx60 series zijn tot nu altijd een van de populairste kaarten geweest.

Als Intel op prijs en prestaties dit weet te evenaren hebben ze toch het gros van de markt in handen. En deze markt kan je helpen de toekomst chips weer te financieren.

Los daarvan vermoed ik dat de kaarten een gevolg zijn van de overname van mobile-eye (de camera’s die zowat in elke slimme auto gebruikt worden waaronder Tesla en NIO)
Als gamers de R&D mee financieren voor GPU’s kunnen ze straks het gehele ecosysteem in een auto beheersen.

(Ik ben ook benieuwd hoe goed deze GPU straks kan omgaan met videostreams, plex ondersteund namelijk alleen Intel en Nvidia, daar waar Nvidia de consumenten GPU softwarematig limiteert)
Deze chips zijn een doorontwikkeling van de integrated graphics die Intel al had alleen dan flink opgeschaald daarom zie je ook dat laatste generatie laptop chips ook op grafisch gebied goed competitief met AMD was.

Mobile eye gebruikt andere hardware die gespecialiseerd is in neural networking en een aantal specifieke functies voor zelf rijdende autos. https://www.mobileye.com/our-technology/evolution-eyeq-chip/

Ik neem dat de winstgevende onderdelen van Intel inderdaad gebruikt worden voor de financiering van deze expansie maar dat zal zeker niet specifiek over de kruis bestuiving met mobile eye gaan, die worden trouwens ook qua corporate zaken echt als een aparte Intel docher gerund op beurzen kom je bijvoorbeeld regelmatig Intel en Mobile Eye apart tegen.
Deze intel chip heeft AMDTI tech in hard en nieren omdat de lead developer ex AMD is.
De vraag is dan alleen of dit RDNA Vega of CDNA tech inspiratie en of iNtel ook hierdoor de ervaring met chiplets voor gpu binnen haald.
Deze techie kan intel resources hun gpu tech met AMD tech match kiezen uit wat voorhun beste uitkomt.

Valt nogal op dat iNtel en AMD nogal ver zijn met gpu chiplets en nV die nog uitsteld.

Die ex AMD techie bij iNtel genoot de handrem van cpu tak drama en kon dus in zijn periode niet groot uitpakken. Kan nogal stress volle situatie zijn. En zijn potentie onder AMD zwaar gekortwiekt.
Onder iNtel kan die volluit gaan. Zo als zijn opvolger onder AMD nu in betere tijden ook voluit mag gaan.
Er zit inderdaad een ex AMD architect maar zoals hij zelf ook al heeft aangegeven in een aantal Interviews is de reden dat Intel zo snel competitief kan zijn in graphics (als ze alles dit jaar op een beetje waarmaken). Dat heel veel van de technologie blokken om een en ander mogelijk te maken al in andere Intel producten gebruikt werden. Hij kon dus daarop voortbouwen.

Bijv chiplets Intel heeft met kabylake g die techniek al in 2018 op de markt gebracht. Dat was dus voor amd het introduceerde op de markt.
Maar ook multicore en vertical scaling wat voor graphics belangrijk is werd door middel can xeon phi al in 2010 op de markt gebracht toen hadden ze al cpus met 50 cores op een die (handig weetje deze waren het gevolg van een vorig project om high end graphics kaarten te maken) .

Ik denk zelf dat de visie van raja om nu een api te introduceren voor alle graphics gerelateerde software ontwikkeling een veel grotere impact gaat hebben en ook echt vernieuwend gaat zijn voor de toepassing in allerlei applicaties ook niet game gerelateerd. Dat laten ze ook zien met hun eerste generatie waarbij de focus ligt op verbeteren van media creation workflow naast games .
Heb je een linkje naar die Intel API voor alle graphics gerelateerde workloads?
Het gaat iets verder dan alleen graphics workloads concept achter intel one api is dat je code schrijft voor oneapi en dat daarna de sdk kijkt welk hardware in het systeem een en ander moet afhandelen.

Dus voor graphics maar ook bijvoorbeeld voor mining, 5G algoritmes , ai zodra er een stuk hardware is die het werk kan versnellen wordt dat opgepikt zonder dat je code opnieuw hoeft te compileren. Wij gebruiken het niet voor graphics maar de resultaten zullen hetzelfde zijn.


https://software.intel.co...develop/tools/oneapi.html
Die OneAPI klinkt mij als "Jack of all trades, master of none". We zullen wel zien maar ik verwacht dat dit de zoveelste losse flodder gaat zijn, tenzij ze op de een of andere manier brede industrie support er voor krijgen, maar ik denk niet dat de belangrijke partijen intel erg "aardig" vinden.
We gaan het zien maar in bepaalde sectoren wordt het echt al redelijk goed gebruikt.

En niemand hoeft Intel echt aardig te vinden net zoals niemand Microsoft of Amazon echt aardig vind maar uiteindelijk bepalen ze wel allerlei standaarden gewoon puur door hun volume.

[Reactie gewijzigd door CrazyBernie op 1 maart 2021 14:58]

de Xe-HPG 512EU met 4096 shaders zal eerder rond de RTX3060 Ti / RTX3070 zitten als ze zeggen dat
de Xe-HPG 384EU met 3072 shaders moet concurreren met de RTX3060 en RX 6700 XT

De RX 6700 XT heeft een 192bit geheugen bus met 2560 shaders
De RTX3060 heeft een 192bit geheugen bus met 3,584 halve* cuda cores
De 384EU heeft een 192bit geheugen bus met 3072 shaders

De RX 6800 heeft een 256bit geheugen bus met 3840 shaders
De RTX3060Ti heeft een 256bit geheugen bus met 4864 halve* cuda cores
De 512EU heeft een 256bit geheugen bus met 4096 shaders

*Halve cuda cores omdat er sinds de RTX3000 serie een verdubbel trukje is toegepast. Elke core kan simple bewerkingen dubbel uitvoeren.
een soort van Hyper treading voor Cuda cores, hierdoor vermeld de marketing afdeling het aantal cores maal 2.
Because of changes Nvidia has made to its SM since Turing, each of these now has 128 CUDA cores, double that of the 64 in each Turing SM.

Back in Turing, each SM had two datapaths – one dedicated to Floating Point (FP32) workloads, and the other dedicated to Integer. With Ampere, and thus the RTX 3060 Ti, Nvidia was able to engineer the SM to have one of the datapaths essentially able to pull double duty, which is why the amount of CUDA cores has effectively virtually doubled per SM with Ampere.

[Reactie gewijzigd door bugcyber op 27 februari 2021 18:07]

Nvidia was able to engineer the SM to have one of the datapaths essentially able to pull double duty, which is why the amount of CUDA cores has effectively doubled per SM with Ampere.

Als je het zo nodig vind artikelen aan te halen, laat ze dan wel in takt en verdraai ze niet naar jouw mening. Daarnaast is het ook wel netjes om de bron te vermelden.
https://www.techradar.com/reviews/nvidia-geforce-rtx-3060-ti
De bron was ik inderdaad vergeten te vermelden thanks :-)

Ik laat het woord effectively daarom ook bewust staan. (wel doorstreept en gecorrigeerd)
hoe zij het schreven, zou op het zelfde neerkomen als zeggen dat hyper-threading het aantal cores effectief verdubbeld.

Je merkt trouwens ook dat dit geen effectieve verdubbeling is als je de prestaties van een Ampere Cuda vergelijkt met die van een Turing Cuda core. 2 Ampere Cuda cores zijn wel sneller dan 1 Turing Cuda core, maar zeker niet dubbel zo snel.

het was ook niet de bedoeling om de RX3000 serie te bekritiseren, wel hun marketing team. (AMD deed in het verleden trouwens hetzelfde met een van hun CPU reeksen...)

De hele paragraaf over halve Cuda cores was misschien ook wel licht oftopic. Maar dit was eerder om aan te geven dat niet alle Cuda cores / shaders hetzelfde zijn.
Als ik het goed lees is de 384EU (192bit bus) gelijk aan de RTX360. Daarboven staat de 512EU met de 256bit bus. Deze kaart zal dus sneller zijn als de RTX360.
En dat zou dus een goede keuze zijn om mee te beginnen, MITS ze prijstechnisch daar onder kunnen blijven, als het duurder zou zijn met mindere performance, dan zullen er maar weinig mensen kiezen voor een 'nieuwkomer' die geen voordeel biedt.
Onder de huidige prijs van een 3060? Makkie lijkt me, een snelle zoektocht laat me prijzen van €700+ zien dus daaronder is vast wel ruimte :+

[Reactie gewijzigd door sapphire op 27 februari 2021 17:39]

Ik bedoelde dus adviesprijs. Die hoge prijzen heb je te danken aan de webshops die er inflated prijzen voor vragen, want tja, nu kunnen ze er mooi een behoorlijke marge aan verdienen..
Wat ik veel interessanter vind, is dat die zogenaamde mid-range (voorlopig) dus de high-end van intel lijkt te worden. Ze springen in deze generatie dus precies in dat gapende gat van de markt die zowel amd als nvidia open hebben laten liggen.

Deze positionering ziet er ideaal uit voor de spelers die liever niet zo veel geld willen neertellen voor een modernere videokaart.

[Reactie gewijzigd door emphy op 28 februari 2021 05:59]

Nou ik noem het eerder wat op dat moment officiel intel snelste dgpu is.
Dat maakt het geen high-end. Maar iNtels snelste.
Als de vraag enorm groter is dan de aanbod van de algehele markt.
Dan doet MSRP praktisch niet toe maar wat er in de shop’s gevraagd wordt. Dat zal dan net zo hoge prijzen worden als de rest.
Heeft het goede mining performance duiken de miners er ook op. Lijkt mij iig beter dan laptop gpu.
Volgens my zit je dan op rtx 3080 niveau.
Staat dat DG2 ergens voor of is dat 'gewoon' typenaam? (ik heb gegoogeld ;) )
Discrete Graphics. Er was al een DG1, en generatie 2 is dus DG2.

En wat Discrete Graphics is, legt Intel hier zelf uit: https://www.intel.com/con...s/000057824/graphics.html
ah kijk, net de uitleg die ik zocht _/-\o_
't is een gok maar ik zou zeggen "discrete graphics 2"
LOL, Intel had ook in het verleden: Extreme Graphics 2.
https://en.wikipedia.org/...g_units#Second_generation

[Reactie gewijzigd door MedionAkoya op 27 februari 2021 16:55]

Discrete graphics..? Ik zeg maar wat, klinkt me aannemelijk
Van een geïntegreerde naar een discrete GPU, dat klinkt als een flinke stap achteruit voor Intel. Ik vraag me af waarom ze dit doen, zou het ze niet lukken een GPU met vergelijkbare prestaties in de CPU te bakken ?
Lijkt me toch ook wel logisch. Zodra je op serieus dicreet GPU terrein komt, zit je dan met een chip die qua oppervlak vooral GPU is dan CPU, met een veel hogere TDP. Dat lijkt me zowel van thermisch oogpunt als chipgrootte niet handig. Zeker omdat Intel nog steeds op 14nm vast zit.

Bovendien zullen de enthousiastelingen die voor discrete GPU's gaan over het algemeen hun CPU apart uit willen zoeken.

Ik denk dat juist om die reden het zo normaal is dat in de hogere performance klassen de GPU altijd discreet is. Ondanks dat er wel voordelen zijn op het gebied van cache- en geheugendeling.

Misschien komt het wel vanuit AMD op een gegeven moment, zou wel mooi zijn. Vanuit intel of nvidia zie ik het voorlopig niet komen. Intel is geen hoogvlieger op GPU gebied, nvidia heeft alleen arm CPU te bieden en dat is niet handig voor windows games momenteel. AMD heeft wel beide voordelen: Behoorlijk aan de top op GPU gebied en zeer sterk op x64 gebied.

[Reactie gewijzigd door GekkePrutser op 27 februari 2021 17:38]

Volgens mij begrijp je het artikel niet helemaal. Ze willen concurreren met de 3000 serie van Nvidia en de Navi kaarten van AMD, en dan vraag jij je af waarom ze niet gewoon igpu's maken met diezelfde prestaties? Niet echt realistisch denken of ligt het aan mij?
Nee gaat niet, dan zou de processor veel te groot worden (speciaal moederbord en socket nodig) en veel duurder en dan is niet handig voor wie de huidige igpu voldoende is.
En wat is het probleem met een speciaal moederbord en socket ? Die socket wordt toch al om de zoveel jaren vervangen. Ben je de Pentium II vergeten ? Doen ze gewoon wanneer dat nodig is en in hun straatje speelt hoor. Het is Intel. Ze hoeven met niemand anders rekening te houden.
Wanneer deze uitkomen èn ook nog eens daadwerkelijk fatsoenlijk leverbaar zijn, kan Intel weleens een erg goede start met deze videokaarten hebben. Want bij gebrek aan koopmogelijkheden van AMD en nVidia kaarten zou Intel goud in handen hebben wanneer hun kaarten wel aan te schaffen zijn :P

Maar sowieso eerst maar eens benchmarks afwachten van daadwerkelijke productie-exemplaren.

[Reactie gewijzigd door Wildfire op 27 februari 2021 15:14]

Als de hashrates vergelijkbaar zijn met de equivalenten aan nVidia en AMD zijde, dan is de start voor Intel vast goed ;) Dan heeft Intel inderdaad goud in handen en de gaming community nog altijd weinig/niets voor een normalere prijs..
Als ze gelijk of zelfs beter blijken zou dat voor ons ook gunstig kunnen uitpakken. als de Minners massaal op de Intel gaan blijven er meer AMD/Nvidia voor ons.

Om eerlijk te zijn heb ik niet gek veel verwachting van Intel op de GPU gaming markt.
AMD heeft deze serie eindelijk een echt concurrerend product ten opzichte van Nvidia(met een kleine achterstand met Raytracing en DDSL), en zij spelen al jaren mee.

Dus als Intel mining markt afpakt, be my guest.
Helaas putten er dan wel drie fabrikanten uit dezelfde bron van grondstoffen en componenten, die nu ook al schaars zijn. Dan hoop je dat de krapte kunstmatig is, maar ik ben bang van niet.

Ik denk dat Intel vooral dezelfde strategie als AMD toepast, eerst low-mid-range, 2-3 ontwikkel iteraties en dan langzaam aan de poten zagen. Ex-AMD Raja Koduri is immers ook in dienst van Intel tegenwoordig en is daar vrij succesvol mee geweest.
Denk zelfs dat voor de miners geld pakken wat je pakken kan.
Waarschijnlijk wel ja, maar het zou wel wat druk weg kunnen halen bij de andere twee.
Yep, maar dan ga je er van uit dat de hoge prijs en slechte leveringen van Nvidia niet kunstmatig zijn.
Oftewel als Intel uitkomt zal je zien dat de 30xx kaarten ineens wel leverbaar zijn :?
Vraag me af waarom dit soort posts altijd alleen NVIDIA noemen terwijl amd volgens mij nog slechter verkrijgbaar is als NVIDIA.
We zullen zien, maar ik heb een vermoeden van niet.
Of ze moeten nu zelf gaan hamsteren als AMD en NVidia zijnde om bij het uitkomen van deze DG2 meteen de markt te overspoelen.
Aangezien ze bij een externe foundry geproduceerd worden, vrees ik het ergste qua beschikbaarheid.
Intel heeft eigen foundries, maar heeft de stap naar kleiner dan 14nm nog steeds niet (goed) kunnen maken, en deze zouden op 6nm geproduceerd worden...
Erger nog, als ze capaciteit ingekocht hebben, maar hun ontwerpen zijn subpar omdat het de eerste keer is dat ze op 6nm uitbesteden op een compleet andere technologie, dan hebben ze dramatische yields, en gaat het ten koste van capaciteit die beter door een ander gebruikt had kunnen worden.
verwacht van niet, Intel kampt zelf al jaren met productieproblemen en dan hebben we het niet over hun ontwikkeling van 10nm en 7 nm alleen. Hun hele productieproces was erop gericht op tijd 10nm uit te brengen waardoor ze meer chips konden produceren, nog niet eens Ryzen mee gerekend die cores begon te pushen. Nee ik verwacht niet dat Intel beter zal gaan leveren dan anderen.
Die problemen die je noemt zijn met hun eigen foundries. De leak zegt dat de gpu's door een externe foundry geproduceerd wordt. Dat zou ook logisch zijn gezien de leveringsproblemen bij hun eigen foundries.
Ja maar dat maakt het dus niet beter aangezien die vrijwel allemaal al overbezet zijn door AMD, Nvidia, Apple, Sony, Microsoft en alle anderen die ergens in de wachtrij staan (zoals alle autofabrikanten).
Was het niet vooral het 7nm proces dat het nogal druk heeft? Deze zouden 6nm moeten zijn wat me dan een andere productielijn lijkt te zijn. Of denk ik nu te simpel?
Ik ben ook heel benieuwd. Intel en videokaarten is niet echt een gelukkig huwelijk historisch gezien maar een betere tijd om als nieuwe producent in te stappen is er met alle tekorten denk ik niet. Daarnaast is de Intel kritiek en het leedvermaak over Intel de afgelopen jaren niet primair het resultaat van het ontwerpen van slechte producten, maar omdat ze het procedé niet op orde kregen. Nu doen ze wat de concurrenten ook doen, het beste product elders inkopen. Hopen dat dit een goed product is anders verspillen ze alleen maar waardevolle productiecapaciteit die andere fabrikanten met betere producten ook goed hadden kunnen gebruiken.
Niet primair vanwege slechte producten?
Eeuuhh..hoeveel gaten hebben ze moeten dichten in hun CPU's. Zowel software- als hardwarematig.
Of ben je dat al vergeten?
https://www.consumentenbo...-mei-2019-vraag--antwoord

Onder een nog wat meltdown, spectre en dergelijke.

En daarbovenop nog een procédé die maar niet van de grond komt.
Wanneer deze uitkomen èn ook nog eens daadwerkelijk fatsoenlijk leverbaar zijn, kan Intel weleens een erg goede start met deze videokaarten hebben.
Dat dacht ik ook, totdat ik las dat het externe capaciteit is die al een tijd geleden is ingekocht. Dat geeft Intel geen flexibiliteit qua productie aantallen. Als ze dat bij hun eigen foundrys zouden produceren zouden ze er voor kunnen kiezen om meer lijnen aan een product te besteden wat goed loop tov. producten die minder winstgevend zijn...
alsof Intel zo veel capaciteit op voorhand heeft kunnen inkopen bij TSMC, want moest die nog vrij zijn geweest, dan waren AMD en Nvidia er al lang op gesprongen. Nee, ik vermoed dat dit maar een fractie van de hoeveelheid is die er op de markt tekort is en mensen uit wanhoop ze misschien zullen kopen ipv puur omwille van hun goede prestaties.
Had TSMC niet recent wat capaciteit over vanwege Huawei en de handelsoorlog? Misschien heeft Intel toen hun slag geslagen?

Allemaal speculatie mijnerzijds, al mijn kennis komt van Tweakers ;)
Het maakt niet uit. Intel zal gewoon tegen dezelfde problemen aanlopen.
Als AMD en Nvidia al alles vrijwel in bezit hebben. Dan zal zeker Intel met hin nieuwe GPU zeker niet goud in handen hebben. Kunnen ze wel dromen natuurlijk, dat mag.
Nou dat denk ik niet.
Ze gebruiken laptops voor mining.
Wat houd dat in dat de vraag zo enorm is dat ze alles pakken met moderne GPU erin.
Daarnaast die externe foundry is al zwaar belast dus de productie kan hooguit anders verdeeld worden over de klanten. Het zal dan eerder ten koste van Apple en AMD en console chips gaan. En daarmee brengt alleen shift in wat er geleverd kan worden als geluk heb voor die weinigen dat er iets gekocht kan worden.
Intel heeft zijn eigenfab dus voor hun win win voor AMD vergroot het drama zij zijn afhankelijk van TSMC met Apple.
Er kan alleen meer geproduceerd worden als er productie lijnen erbij komen voor de gekozen node en oudere door gaan met productie en dus de 5nm en 3nm erbij komt. Ipv omgezet. Nieuwe fabs in VS is lange termijn oplossing.

Daarnaast als de mining bubbel barst wereld vaccinatie op peil dan kan er over capaciteit komen.

GPU geproduceerd op eigen fabs dragen wel bij algehele aanbod aan gpu. Want dan is het intel en TSMC en Samsung die GPU produceren.
Ik ben vooral benieuwd naar de benchmarks, intel stond nou niet echt bekend bij de gamers ze hebben het in verleden al een geprobeerd maar geflopt.

Alhoewel de Intel iris lijn kun je wel aardig op basis/budget gamen.

[Reactie gewijzigd door mr_evil08 op 27 februari 2021 15:21]

De intel 740 als product was een flop, maar de techniek erachter heeft ze over de jaren geen windeieren gelegd, sterker nog, de onboard graphics van de meeste intel kantoordesktops intel (8xx chipset) tussen 2000 en 2006 zijn eruit ontstaan.
Ik heb nog zo'n videokaart gehad. Zó bagger wastie niet. Je moest er alleen niet op gamen.
Zelfs dat ging tot op zekere hoogte aardig, je moet deze kaart ook als tijdgenoot zien van de TNT van Nvidia en Ati Rage 128. Toen die (te laat) op de markt kwam concurreerde die dus met de TNT2 Ultra, Rage Fury GL.en Savage4. Maar een potje midtown midness, incoming of Carmageddon 2 trok die wel
i740 was poging die ze niet doorzetten . Het verschil is dat iNtel driver en firmware voor iGPU core taak is robust driver en firmware voor office taken . Dus er is geen taak om zwaar te optimizen in de voorgangers van DX11 om game specifiek met exe detect op driver niveau voor game titels te optimizen. Robuste reference driver met HAL support.
Dat zal dus geheid een afdeling zijn die bij nV zeer groot is. Bij ATI ook wel onder AMD in darkages van hun CPU drama downsized is en bij iNtel afwezig.
En mogelijk niet ingezet of opgeschaald als er al zo een afdeling was voor i740 avondtuur.

i740 was probleem niet het goed aanpakken en zwaar inzetten op next gen dus doorontwikkelen. NV en ATI faalden ook wel eens periodiek met mindere gen. Volgende gen nieuwe kansen. En zo slecht waren ze niet. Maar ja als je voor prestige gaat dus kroon. i740 was betaalbate sub high-end upper midrange betaalbaar met zijn eigen pro en con. De kroon is voor 95% niet belangrijk het commerciële rendement zit hem in budget en midrange. Diegene die beste moet hebben en voor paar % al upgrade en cash tegen aan gooid. Was i740 gewoon iets betaalbaars in zijn performance en prijs klasse .
En had ik dus een Asus i740.

Heb ook Savage2000 voor superieure DVD decoding
ATI 8500DV voor DV features.

Zolang de prijs performance tdp goed genoeg is is goede alternatief.

Als meer bij de vaak upgrader 3090 titan volk hoort tja dan zou fijn zijn als het Lovelace Hopper killer wordt. Voor de meesten als de TDP redelijk is en performance in de high-end klasse komt.
Zolang de concurrentie geen alternatief heeft wat de verborgen features in Nvidia Inspector betreft, blijf ik bij Nvidia.

Gebruik dat zo verdomd vaak voor retro games, met name de talloze Anti-Aliasing opties.
Ik vind handig dat ik met Nvidia config 8x Super sampling aan kan zetten in oude games (2004 oid) die normaliter 2000 fps draaien nu nog maar 180 fps. Zo kun je soms stokoude games flink opvoeren qua graphics

Vind dat met AMD drivers niet werken, had daar issues mee

[Reactie gewijzigd door A87 op 27 februari 2021 15:43]

Ondersteunen deze nog steeds SR-IOV?
Ik ben vooral benieuwd of SR-IOV ondersteund gaat worden op deze kaarten. Hiermee kan je je GPU verdelen over verscheidene virtuele GPU's, die daarna in virtuele machines kunnen worden gebruikt. Er zijn thuisgebruikers die dit gebruiken voor gaming. Intel heeft het al in de vorm van GVT-g op IGP's tot aan de 9e core generatie. Vanaf de 11e generatie gaan ze over op SR-IOV proper (aldus een Redditor die contact had met Intel), en dit gaat ook in sommige discrete GPU's komen. Intel en Nvidia doen het bij een zeer beperkt aantal kaarten die extreem duur zijn, en bij Nvidia moet je er ook nog een licentie bij afnemen. Het zou leuk zijn als de wat meer IT-kundige consument er ook gebruik van kon maken.
Daar ben ik ook wel benieuwd naar.
Wij gebruiken een groot aantal Tesla T4's voor dat soort dingen, bij gebrek aan iets concurrerends.
Intel heeft vorig jaar volgens mij al kaarteb voor in servers op basis van deze GPU's op de markt gebracht. Ik meen dat er dan ook meerdere GPU's op een kaart geplaatst worden. Er heeft een artikel op de frontpage gestaan hierover volgens mij... als ik deze terug weet te vinden voeg ik hem nog toe. Gevonden, dit zijn blijkbaar wat lichtere kaarten, de zwaardere komen nog.

[Reactie gewijzigd door _Dune_ op 27 februari 2021 21:09]

AMD doet MxGPU zonder licentiekosten. Voor de licenties bij nVIDIA (2000/GPU/3jaar) kun je een tweede kaart kopen.

Ik ben momenteel aan het experimenteren met de 75W Radeon Pro WX5100 - kan je weg met een “goedkope” server, 6 VMs met 8 cores,1 GPU met 8GB en 32GB RAM per VM in 2U voor EUR10,000.
Ja, ik weet dat veel GPU's in principe MxGPU doen, maar zover ik heb kunnen vinden is er gewoon 0 support voor een platform als VMware ESXi. Alleen op inmiddels bejaarde versies met bejaarde kaarten.
Als intel hier betaalbare 2060+ prestatie Gpu's neer kan zetten en ze breed leverbaar kan maken gaan ze echt goede zaken doen.
Normaal zou ik zeggen sla generatie 1 en misschien 2 over en laat andere beta testen. Maar door de huidige markt is die situatie voor velen veel anders en is er een meer dringende behoefte aan kaarten en kan intel daardoor wel eens mensen over de streep halen.

[Reactie gewijzigd door computerjunky op 27 februari 2021 18:53]

Het is toch ongelofelijk dat je geen 3080 voor 600-700 kunt kopen etc etc..
We hebben zoveel meer nodig dan alleen maar INTEL want er is helemaal NIETS nieuws te koop voor een redelijk bedrag

[Reactie gewijzigd door A87 op 27 februari 2021 15:40]

Op dit item kan niet meer gereageerd worden.


Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Microsoft Xbox Series X LG CX Google Pixel 5a 5G Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True