Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel stopt nieuwe losse Iris Xe Max-gpu in drie laptops en geeft details

Intel heeft zijn eerste losse gpu, de Iris Xe Max, beschikbaar gesteld in drie laptops van Dell, Acer en Asus. Intel claimt dat dankzij een samenwerking tussen elfde generatie Core-processors het coderen van video met deze gpu sneller gaat dan met een RTX 2080 van Nvidia.

De technologie voor het laten samenwerken van de geïntegreerde gpu en de Iris Xe Max noemt het bedrijf Deep Link. Dat is een software-raamwerk dat schat of een taak goed uitgevoerd kan worden door de igpu, de dgpu of beide. Intel claimt dat dankzij die laatste optie de codering van zijn gpu in Handbrake bijvoorbeeld tot bijna 1,8 maal zo snel is als met een laptop met een RTX 2080 en Core i9-10980HK.

Naast de coderingsprestaties moet de Intel Iris Xe Max op het gebied van gaming ook meer bieden dan Intel tot nu toe heeft gedaan. Het bedrijf spreekt zelf van 'geweldige thin & light-1080p-prestaties in populaire games'. Op die resolutie moet de gpu 30-45fps tonen in games als Shadow of the Tomb Raider, Borderlands 3 en The Witcher 3. Ook twee nieuwe softwareoplossingen, Game Sharpening en Instant Game Tuning, moeten de prestaties hier verbeteren. Onafhankelijke benchmarks van deze prestaties en die op het gebied van codering zijn er nog niet.

Volgens slides van Intel heeft de Iris Xe Max in totaal 96 execution-units en loopt de gpu op een kloksnelheid van 1,65GHz. Hij heeft 4GB Lpddr4x-geheugen tot zijn beschikking, met een bandbreedte van 68GB/s.

De laptops in kwestie zijn de Acer Swift 3x, Asus VivoBook Flip TP470 en de Dell Inspiron 15 7000 2 in 1, die vooralsnog alleen te vinden is bij een Amerikaanse winkelketen. Of en wanneer deze naar de Benelux komen, is nog niet duidelijk.

Intel stelt in zijn bekendmaking verder dat het ook werkt aan zijn lijn van losse gpu's voor desktop-pc's. Het stelt dat de gpu's geschikt zijn voor alle toepassingen, hoog en laag, maar het begint met de introductie van gpu's voor 'value desktops' in de eerste helft van 2021.

Intel Iris Xe Max reveal

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Mark Hendrikman

Nieuwsposter

01-11-2020 • 12:08

54 Linkedin

Reacties (54)

Wijzig sortering
Ik hoop vooral dat deze chips SR-IOV/GVT-G gaan ondersteunen. Dat is bij Nvidia en AMD nogal moeilijk. Bij Nvidia moet een GRID videokaart kopen, waar dan ook weer een abonnement bij hoort. Bij AMD zijn er misschien een keer 3 hele dure professionele kaarten die het ondersteunen. Intel ondersteunt het ondertussen al jaren op hun IGP's. Hopelijk komt het ook jaar Xe.

Het zou echt fantastisch zijn voor thuisservers en home labs. Diverse virtuele machines die gewoon de videokaart zo kunnen aanspreken. Ook zou het erg fijn zijn voor mensen die via virtuele machines gamen (wat je soms bij Linux gebruikers ziet). Die kunnen dan hun videokaart opsplitsen en in hun VM gebruiken. Veel gebruikers nu hebben 2 videokaarten. 1 voor het host OS en 1 voor de VM. Een enkele videokaart tussen host en guest wisselen gaat maar zeer zelden goed.
Hoe groot is die markt als ik het vragen mag. Want het is volgens mij echt een Nice markt. En zijn er andere oplossingen die het goedkoper maken.
Dat is zeker geen niche markt op server niveau, dit is een van de basis technologieën die je gebruikt om prestaties op te krikken in VDI. Hetgeen waar een behoorlijk deel van de nederlandse thuiswerkers op het moment mee voorzien zijn. Nvidia heeft een monopoly op deze markt omdat AMD maar 3 echte mxgpu kaarten uitgebracht heeft hiervoor, gecertificeerde ondersteuning is dan weer heel laag, net als verkrijgbaarheid. Al zie ik niet gauw gebeuren dat intel deze markt gaat verbeteren voor ons, is het hoopgevend dat ze werken aan de technologie zelf.
Verwacht alleen niet dat die technieken verder ontwikkeld gaan worden, VDI/RDS is een techniek die momenteel bij het gros van de bedrijven de deur uit gegooid word. Bedrijven die hier nog gebruik van maken zijn er zeker, meer dan genoeg. Maar wanneer ze eenmaal moeten kiezen tussen het upgraden van de huidige omgeving of het traject naar de moderne werkplek zal vaker de 2e optie gekozen worden. Dus het is een rustig uitstervende techniek.
Het heeft heel veel voordelen anders.
Citrix Remote Desktop wordt nogsteeds heel veel gebruikt.
Wat dacht je van bescherming van gegevens.

[Reactie gewijzigd door Zezura op 1 november 2020 14:36]

Ik denk bij Citrix de laatste paar jaar nou niet direct aan 'veilig' eigenlijk. Daarnaast is in mijn ervaring de markt inderdaad aan het bewegen naar een ander type van beveiliging en remote werken. Google maar eens op 'Google Beyond Corp'.
Tja, veiligheid zit op verschillende lagen. Security-issues in citrix zelf doen onderaan de streep niet af aan wat citrix conceptueel doet: het aanbieden van een managed workspace.
Heel veel 'moderne' werkplekken die ik aangeboden zie worden zijn juist gebaseerd op zaken als VDI via bijvoorbeeld Windows Virtual Desktop van Microsoft of soortgelijke platformen.
De klanten waar ik voor werk zie ik juist massaal over gaan op fat clients, intune en de cloud.
De aanwezigheid van legacy applicaties is voor zover ik het weet meestal een factor voor het kiezen voor VDI. Ben benieuwd naar jouw idee van een moderne werkplek en wat voor applicaties men daarin gebruikt?
Veelal webbased applicaties, heel veel in de zorg. Laatst bij een zorgklant citrix nog uitgefaseerd en iedereen een surface go gegeven, beheer via Intune, web based werken en gaan.

De aanwezigheid van legacy applicaties is momenteel volgensmij de grootste reden om nog van Citrix gebruik te maken. Wat je veelal ziet bij de "Overgang" is dat of de legacy applicaties er gewoon uit gegooid worden en indien nodig worden vervangen, of een vorm van Applicatievirtualisatie.
Toegankelijkheid tot de technologie zou al een hele stap zijn. Dan hoeft Intel wellicht niet eens echt wat te doen om het verder te verbeteren, zolang het maar werkt op videokaarten van onder de duizend euro. Intel implementeert het in hun huidige geïntegreerde videochips. Daarom is het niet compleet onwaarschijnlijk dat ook de Xe kaarten het zouden kunnen ondersteunen. Maar er is nog niets over bekend. Ik heb al contact gehad met Intel, maar ze willen er nog niets over prijsgeven.
Intel is inderdaad geweldig in het supporten van virtualization technieken, wat eigenlijk de toekomst is voor de veiligheid van zo'n beetje elke applicatie.
Op de CPU vind ik ze eigenlijk nog niet eens zo geweldig. IOMMU separatie (ook bekend als ACS support) is bijvoorbeeld alleen aanwezig op HEDT CPU's en de duurdere Xeons. Die is nodig als je zowel PCIe hardware hebt voor je host als PCIe hardware voor je guest. Of meerdere guests. Je kan namelijk maar één hele IOMMU groep toewijzen aan een OS, en deze niet scheiden. Al zijn er wel onofficiële patches die dit mogelijk maken, maar daarmee is in theorie het systeem ook minder veilig en stabiel. En telkens je kernel patchen is irritant. AMD is daar wat makkelijker in. Ik geloof dat ze zelfs dual cores dit volledig laten ondersteunen. Alleen hun APU's (bijvoorbeeld Ryzen 3200G) ondersteunen geen ACS, als ik het me goed herinner.

Dat gezegd hebbende, als je dan een HEDT systeem hebt werkt het ook erg goed. Wat dat betreft doet Intel de support wel weer heel goed. Het kost alleen toch weer een premium. Maar Intel gooit dan wel weer SR-IOV over hun IGP's, wat toch weer een bepaalde intentie toont om VM werk te ondersteunen op een niveau waar AMD zich nauwelijks aan waagt.

Mijn ideale combinatie zou dan zijn om een Ryzen CPU te nemen, met een Intel videokaart. Ervan uitgaande dat SR-IOV/GVT-g ook bruikbaar is op een AMD CPU, zolang de graphics maar van Intel zijn. Dat zou perfect zijn. Wat dat betreft let ik zeer scherp op wat Intel de komende tijd gaat doen. En mocht GVT-g alleen werken in combinatie met Xeon/HEDT platforms, dan zou ik sterk overwegen om dan ook een Intel CPU te kopen. Al heeft Ryzen wel mijn voorkeur als dat even kan.

[Reactie gewijzigd door Amanoo op 2 november 2020 00:53]

Ik hoop dat ze een beetje betaalbaar zijn, zodat ik ze in mijn desktops kan gebruiken in plaats van oudere Nvidia kaarten. AMD is niet echt in the running vanwege het ontbreken van enige ondersteuning voor Navi kaarten in ROCm en het uitblijven van nieuws over een goedkope CDNA videokaart.

Het lijkt me te zijner tijd ook wel leuk om te zien of deze Intel kaarten ook werken in combinatie met andere processoren dan x86. Op big-endian systemen zoals een Powermac G5 is het wat dat betreft echt behelpen qua software ondersteuning.
Ik zie er niet helemaal het nut van in. Deze GPU is identiek aan de GPU die reeds in de 11xx-serie mobile processors zit. Er is geen mogelijkheid om deze twee identieke GPU's te laten samenwerken. Het is of de ene of de andere die het grafisch werk voor z'n rekening neemt, niet tegelijk zoals bijvoorbeeld bij crossfire or sli.

Het enige voordeel wat er is, is dat de losse GPU zijn eigen geheugen krijgt en zijn eigen power/temperature budget. Dat kan er voor zorgen dat het met die losse GPU ietsje beter loopt dat met de geïntegreerde GPU, maar dat gaat echt geen groot verschil zijn, temeer omdat je bijna hetzelfde resultaat krijgt als de OEM het systeem instelt met het TDP-up power-budget (28W) ipv de standaard TDP. Elke OEM kan de chips op die manier gebruiken, het enige wat hiervoor nodig is, is een systeem wat voldoende vermogen kan aanvoeren en voldoende warmte kan afvoeren. De OEM spaart dan dus een chip uit, heeft een iets lagere vermogenaanvoer en koelcapaciteit nodig dan de combinatie van 11xx-CPU met de standaard TDP en deze specifieke losse Intel GPU en je levert slechts een zeer kleine hoeveelheid grafische snelheid in (beide GPU's zijn praktisch identiek, max 25% sneller) terwijl de prijs van het systeem beduidend lager kan zijn (kleinere geintegreerde PSU op het mobo, minder koeling, minder randcomponenten, mobo zelf wordt kleiner, minder totale koeling nodig, etc...)

Intel geeft zelf ook al aan, dat ze dit niet zozeer zien als een losse GPU, maar meer als een accelerator card. Voor deze serie CPU's heeft nvidia trouwens de MX450 serie uitgebracht als combinatie entry-level GPU, die is een pak sneller dan de MX350, dus de benchmarks vergelijken eigenlijk met de entry GPU's van de vorige generatie (voor de 10xx(x)-serie).

Je gaat dus beter af zijn met een laptop die €50 meer kost met een MX450 als je in de markt bent voor een laptop met een entry-level GPU, of anders gewoon geen losse GPU en gewoon de geïntegreerde GPU (die dus vrijwel identiek is aan deze specifieke losse GPU) en €50 uitsparen of uitgeven aan een betere/grotere SSD of iets dergelijks..

Hij valt wat mij betreft een beetje tussen de wal en het schip, deze Intel GPU in zijn losse vorm. Qua geïntegreerde GPU is het een fantastische vooruitgang tov. de vorige generatie.

[Reactie gewijzigd door TetsuoShima op 1 november 2020 12:50]

Ik zie er niet helemaal het nut van in. Deze GPU is identiek aan de GPU die reeds in de 11xx-serie mobile processors zit. Er is geen mogelijkheid om deze twee identieke GPU's te laten samenwerken. Het is of de ene of de andere die het grafisch werk voor z'n rekening neemt, niet tegelijk zoals bijvoorbeeld bij crossfire or sli.
Weet je dat heel zeker? Uit het artikel:
De technologie voor het laten samenwerken van de geïntegreerde gpu en de Iris Xe Max noemt het bedrijf Deep Link. Dat is een software-raamwerk dat inschat of een taak goed uitgevoerd kan worden door de igpu, de dgpu, of beide.
Tja, vermits or nog niets echt op de markt is, kan je alleen maar afgaan op wat bekend wordt via de tech nieuwsmedia en de Intel website. Op die bovenstaande manier geïnterpreteerd, lijkt de info die je quote uit het artikel in conflict te zijn met de info die op andere sites verschenen is, zoals bijvoorbeeld anandtech:

"To cut right to the chase on an important question for our more technical readers, Intel has not developed any kind of multi-GPU rendering technology that allows for multiple GPUs to be used together for a single graphics task (ala NVIDIA’s SLI or AMD’s CrossFire). So there is no way to combine a Tiger Lake-U iGPU with Xe MAX and double your DOTA framerate, for example. Functionally, Xe MAX is closer to a graphics co-processor – literally a second GPU in the system."
https://www.anandtech.com...ax-for-entrylevel-laptops

Als je op de Intel website zelf gaat kijken over wat die Deep Link dan eigenlijk inhoud, dan kom je tot de conclusie dat het software is die taken optimaal verdeelt tussen de beschikbare resources, dus niet om ze letterlijk samen te laten werken, maar wel om de aparte taken apart toe te wijzen aan de verschillende delen van de chip, Bijvoorbeeld, één chip doet de graphics terwijl de andere met video-editing bezig is, of iets dergelijks. Dit is ook in lijn met de positionering van Intel dat dit eerder een accelerator chip is.
https://www.intel.com/con...gy/adaptix/deep-link.html

Als uiteindelijk zou blijken dan multi-gpu rendering wel mogelijk wordt, dan is mijn eerdere conclusie natuurlijk niet terecht, maar rekening houdend met de info die nu voor handen is, lijkt dat niet het geval te zijn.
Die Deep Link gaat om specifieke dingen, zoals video encoding, welke volgens Intel hierdoor veel sneller gaat dan een RTX 2080.

Het lijkt ook dat het meer gaat om het verdelen van verschillende taken. Stel je voor je bent aan het gamen, en daarnaast ook een filmpje aan het kijken: Deep Link kan ervoor zorgen dat video decoding over de iGPU gaat en het gamen over de discrete GPU. Althans, dat haal ik uit de tekst van het artikel van Intel: It "routes" workloads.

Maar of een game allebei de chips tegelijk kan aanspreken betwijfel ik ten zeerste.

[Reactie gewijzigd door NotCYF op 2 november 2020 07:09]

Er is geen mogelijkheid om deze twee identieke GPU's te laten samenwerken. Het is of de ene of de andere die het grafisch werk voor z'n rekening neemt, niet tegelijk zoals bijvoorbeeld bij crossfire or sli.
Crossfire en SLI worden tegenwoordig ook nog amper ondersteund of zelfs helemaal niet meer. Je hebt alleen NVLink nog. Wil niet zeggen dat meerdere GPUs geen nut hebben want je kunt zonder die foefjes de GPUs gewoon los van elkaar aan het werk zetten (beetje zoals een eGPU). Nou heeft dat niet bar veel zin als één GPU niet veel sneller is als de ander alleen.
Het is tegenwoordig door de kracht van GPU's ook niet echt meer nodig om SLI of Crossfire te gebruiken. Ook hebben de PCI.e lanes tegenwoordig zoveel bandwidth dat een bridge ook niet meer nodig is om GPU's te laten samenwerken.
An sich zouden die TDP limieten nog wel kunnen helpen. Op mijn surface pro 7 (i5-1035G4, passief gekoeld!) heb ik gemerkt dat bij volledige GPU belasting de cpu direct terug clockt naar 1.6 Ghz, ook al is hij niet warm. Mijn grotere laptop met een 8250U+MX150 heeft daar geen last van. Die gaat op basis van temperatuur terug clocken maar dan houd je nog wel circa 2.6 Ghz over en de gpu blijft gewoon zijn ding doen. Uiteindelijk is die laptop voor gaming dan ook sneller (logisch).

Ik denk dat we deze GPU eerder als proefballonnetje kunnen zien. Het is zo ver ik weet de eerste consumenten GPU van Intel en hij is daarnaast ook op 10nm superfin gemaakt. We moeten nog even geduld hebben voor de snellere modellen.
Eindelijk waardige concurrentie van een derde partij. Niet verkeerd! Ik heb nog een Intel i740 AGP kaart hier liggen. Toentertijd ook prima!
'Waardige concurrentie'

Deze kaarten (MX350) zijn gemaakt op de Pascal architectuur, van 2016 welke net zo snel is als de 960M.

Ze kunnen concurreren op de low-low end.

Een MX350 kan je al vrij weinig, het is eigenlijk nauwelijks genoeg om op te gamen en zit een beetje in 'no-mans' land. Het verbruikt meer stroom maar geeft je niet de performance die je nodig hebt voor zwaardere taken.
Als je wilt gamen zal je dat ook niet op deze kaarten doen maar iets uit een hier segment pakken.

Oftewel noem ik dit geen waardige concurrentie maar een stap naar extra concurrentie. Ik verwelkom Intel met 2 handen omdat concurrentie gewoon goed is voor de consument. Enige waar ik bang voor ben is dat Intel en AMD proprietaire protocollen gaan gebruiken om de communicatie tussen CPU en GPU te verbeteren.
En dus je eigenlijk altijd compleet blauw of compleet rood systeem moet hebben.
Enige waar ik bang voor ben is dat Intel en AMD proprietaire protocollen gaan gebruiken om de communicatie tussen CPU en GPU te verbeteren.
En dus je eigenlijk altijd compleet blauw of compleet rood systeem moet hebben.
Als je hiermee doelt op AMD zijn "Smart Access Memory" technology dan valt dat gelukkig mee. Smart Access Memory is slechts een buzzword dat AMD gebruikt om aan te geven dat ze het dynamisch vergroten van de PCIe BAR (Base Address Register) ruimte ondersteunen, waardoor de CPU meer van het geheugen op de grafische kaart tegelijkertijd kan aansturen in plaats van dat dit in kleine brokken moet. Dit zorgt er voor dat ze het vRAM sneller van grote hoeveelheden data zoals textures kunnen voorzien.

Op hun consumentenplatform beweert AMD dat je hiervoor minimaal een Ryzen 5000 serie CPU op een 500 serie moederbord nodig hebt met een 6000 serie GPU, maar waarschijnlijk ondersteunen oudere moederbord chipsets deze technologie ook al. Het kan echter uit zijn gezet in de firmware. De software ondersteuning hiervoor zit al jaren in de Linux kernel en is dus in principe open source. Toegegeven, deze ondersteuning is door AMD zelf toegevoegd maar in principe betreft het gewoon een uitbreiding van de PCIe standaard. In Windows is de ondersteuning hiervoor pas recent toegevoegd voor zover ik weet, maar als je de laatste versie van Windows 10 gebruikt zou het in ieder geval moeten kunnen werken.

NVidia ondersteunt deze techniek ook maar alleen in hun Quadro kaarten voor zover ik kan vinden. In welke mate Intel dit ondersteund in hun CPU's en chipsets heb ik niet naar gezocht.

Bronnen:
Post op het Phoronix forum van een AMD ontwikkelaar
Discussie op de AMD subreddit

[Reactie gewijzigd door rbr320 op 1 november 2020 14:10]

Dit dus. En 30-45fps vind ik geen "geweldige thin & light-1080p-prestaties". Dat zou minstens 60fps moeten zijn.

[Reactie gewijzigd door ShaiNe op 1 november 2020 13:14]

Voor een thin & light waar normaal dus geen dgpu bij zit vind ik 30 tot 45 in 1080p op moderne aaa games (ik ga maar en er van uit dat het wel op hoge settings draait...) heel erg netjes.

Wat anderen alleen zeggen, het is te weinig voor een goede game ervaring. Dus als je een beetje lekker wil gamen, wordt je er niet blij van.

Persoonlijk zou ik dolblij zijn met iets als een mx150 of mx250 in mijn thin & light, maar dat heeft meer te maken met de Cuda support dan de performance.

1080p 60fps in moderne aaa games heb je gewoon wat meer voor nodig dan een instap kaart. En ja, deze komen voor in voor gaming-machines erg mooie dunne laptops.. Maar dat zijn nog geen thin & lights.

Als er iets is wat shadow of the tomb raider kan spelen op 1080p high settings, niet groter is dan 14" en lichter is dan 1.5kg dan zou ik het best netjes vinden. Dat is een thin & light. En 30 tot 45fps in die form factor is nog steeds mooi... misschien ook omdat het Intel is :P

[Reactie gewijzigd door dipje2 op 2 november 2020 10:46]

Ik had een Asus i740 G-kaart. Geen idee waarom toen. Dat was te lang geleden. Ik weet nog wel waarom de savage2000 betere DVD playback. Motion compentation in hardware. Alle moderne generatie GPU zullen hun Encoder ook vernieuwen met AV1 dus nu heerste nV . Maar met de nieuwe gen kan dat verspringen iig is iNtel al nV Turing voorbij.
Nu nog Handbrake bench reviews van Ampere en bignavi. Voor de encoder kan je de goedkoopste Gkaart uit de line-up pakken.
Ik heb die Intel 740 ook gehad, vooral omdat het een van de eerste AGP kaarten was. Daarom viel ik ook ontzettend over de eerste zin van dit artikel:
Intel heeft zijn eerste losse gpu, de Iris Xe Max, beschikbaar gemaakt in drie laptops van Dell, Acer en Asus.
Niks eerste. Eerste na een lange tijd wellicht, maar zeker niet de eerste.
Intel stelt in zijn bekendmaking verder dat het ook werkt aan zijn lijn van discrete gpu's voor desktop-pc's. Het stelt dat de gpu's geschikt zijn voor alle toepassingen, hoog en laag, maar het begint met de introductie van gpu's voor 'value desktops' in de eerste helft van 2021.
Wat zijn de voordelen van dedicated GPU's in "Value Desktops"? Zelfs voor de meest basale taken; maar ook het gros van websites renderen toch prima op een hedendaage iGPU? En voor fabrikanten (en IT-afdelingen) enkel maar meer onderdelen die kapot kunnen gaan.

[Reactie gewijzigd door AppliArt op 1 november 2020 12:20]

Wat zijn de voordelen van dedicated GPU's in "Value Desktops"?
Marketingtechnisch best logisch. Je blaast de low end concurrentie van nVidia en AMD in dat lage segment weg.
Op voorwaarde dat Intel een product in de markt zet dat price/performance beter presteert dan hun ingebouwde GPU's. Daarnaast bouwt Intel zo goed als geen chips zonder iGPU.

Als je in Pricewatch kijkt naar prebuilts in de prijsklasse 200 euro tot 500 euro kom je enkel systemen met iGPU's tegen. De ingebouwde GPU is gewoon goed genoeg voor dit type van computer en de doelgroep. Als Tweaker is de kans al veel groter dat je zelf iets in elkaar steekt.

[Reactie gewijzigd door AppliArt op 2 november 2020 10:40]

Ik kan me wel een use case voorstellen van een All in One met prima graphics voor een spelletje hier en daar, waarop je dus ook recente spelletjes kan spelen (op Low/Medium). Mensen gaan daar al gauw voor omdat je behoudens een toetsenbord en muis al klaar bent, aansluiten en gaan. Een en al gemak.
Voordeel is batterrij duur als de software / driver detecteerd dat igpu voldoende is en dgpu in power saving set. Wordt nu toegepast in Laptop. Ook past iNtel verschillende iGPU toe dus instap CPU hebben vaak een veel lichtere igpu dan top modellen.
Lijkt mij beter om te zeggen, eerst zien in de benchmark, dan pas geloven.
En dan wel van een onafhankelijke partij
Juistem, en deze eerste benchmark belooft niet veel goeds:
https://www.tomshardware....gpu-performance-benchmark
Prestaties lijken vergelijkbaar met een GeForce MX350.

[Reactie gewijzigd door Geekomatic op 1 november 2020 13:11]

De prestatues zijn dus zoals door Intel aangegeven, vergeet niet dat het hier om lowend gpu's gaat.
Razer heeft al lang laten zien dat ze een dikke discrete GPU in een (prachtige) ultrabook kunnen stoppen.

Intel is letterlijk overal te laat mee.
Ik ben benieuwd of de desktopkaart gaat werken op mijn server voor Plex.

Quick sync wordt standaard ondersteund in Plex, en als ik deze kaart ipv een nVidia p2000/p2200 tegen een beter tarief kan aanschaffen, zou voor mij dit wel een interessante kaart zijn. Mijn huidige Ryzen heeft geen GPU en ondersteund geen hardware transcoding.
Het bedrijf spreekt zelf van 'geweldige thin & light-1080p-prestaties in populaire games'. Op die resolutie moet de gpu 30-45fps tonen in games als Shadow of the Tomb Raider, Borderlands 3 en The Witcher 3.
Oftewel eerder een minpunt tegenover Intel's huidige IGPU's of een AMD alternatief.. Dan zou je deze GPU dus enkel aanschaffen als zij hun cijfers in praktijk kunnen waarmaken bij zware berekeningen. Anders lijkt deze kaart me bijna nutteloos op dit moment. Wat bij Intel soms ook nog eens de vraag is, hoe accuraat het is.

[Reactie gewijzigd door Luca op 1 november 2020 20:02]

Yes 30-45 fps in games en dat zijn dan de Intel nummers. Top.
Ik meen dat Intel deze GPU niet specifiek in de markt zet als 'gaming GPU'. Dat je een spelletje kunt spelen op een 'thin & light laptop' met deze GPU is mooi meegenomen, maar zeker geen hoofdzaak.
Klopt ze zijn nu van lowest-end naar low-end gegaan. Knappe prestatie toch?
Ik zie in het artikel niet terug dat het hier om de hoogste settings gaat(?)
Het zijn niet bepaald cijfers om mee te pronken als het om 'low/medium settings' gaat. Dus ik ga er maar vanuit dat dit highest is. Nvidia/AMD tonen ook cijfers op basis van hoogste settings tenslotte.
Van wat ik lees zijn dit medium settings, Intel vergelijkt deze GPU met Geforce MX 350. Oftewel, dit gaat om de low end markt.
Maar als dit low end is, wat was dat wat ze ervoor hadden dan?
Ik zou het vergelijken met andere dgpu chip met gelijke chip grote. Dus is dit gelijk of kleiner dan wat GA106 of N23 zal zijn. Als deze kwa grote kleiner is dan mag het ook minder presteren als nV en AMD niks in die grote heeft dan vallen ze in ultra low budget klasse en unchallenged hooguit door APU met flinkere even grote iGPU.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True