Crimson Desert gaat na kritiek toch Intel Arc-gpu's ondersteunen

Crimson Desert-ontwikkelaar Pearl Abyss gaat na kritiek van Intel en gamers toch werken aan ondersteuning voor Intel Arc-videokaarten. Onlangs bleek dat de game niet op die hardware werkte en kregen getroffenen nog het advies om de game te retourneren.

Pearl Abyss schrijft in een faq dat er aan Intel Arc-ondersteuning voor Crimson Desert gewerkt wordt, maar zegt niet wanneer de ondersteuning uit moet komen. "We werken momenteel aan compatibiliteit en optimalisatie voor de ondersteuning van Crimson Desert op systemen met een Intel Arc-gpu."

Veel kritiek op gebrek aan ondersteuning

Na de release van Crimson Desert op 19 maart kwamen gamers met een Intel Arc-gpu erachter dat de rpg niet op hun systeem werkt. Hoewel Intel-gpu's voor de release al niet in de systeemeisen genoemd werden, gingen sommige gamers er toch vanuit dat de hardware ondersteund zou worden. De gamemaker raadde getroffenen aan om het spel te retourneren.

Kort daarna bracht Intel een statement uit waaruit bleek dat het gebrek aan Arc-ondersteuning de schuld van Pearl Abyss was, zo citeerde onder meer TechPowerUp. "Het laten werken van games is een samenwerking tussen ontwikkelaars en hardwaremakers. De afgelopen jaren hebben we meermaals contact gezocht met Pearl Abyss om te helpen bij het testen, valideren, optimaliseren en ondersteunen van [Crimson Desert] op Intel-gpu's. We hebben vroegtijdig hardware, drivers en productie-informatie van meerdere gpu-generaties met het bedrijf gedeeld."

Het is onduidelijk of het publieke statement van Intel iets aan het beleid van Pearl Abyss veranderd heeft. In de faq suggereert het Zuid-Koreaanse bedrijf dat het mogelijk om een miscommunicatie ging: "We verontschuldigen ons voor de eventuele verwarring en de eerdere bewoording in de faq aangaande de speelbaarheid op Intel Arc-gpu's."

Crimson Desert

Door Yannick Spinner

Redacteur

23-03-2026 • 15:00

25

Submitter: CLB

Reacties (25)

Sorteer op:

Weergave:

Wat ik me afvraag; waarom is het zo dat een game wel of niet support kan inbouwen voor een bepaalde GPU, als er al twee lagen (DirectX en dan de drivers) tussen de game en de GPU in zitten die de hardware weg-abstraheren?

Is dit soort gedoe niet precies waarom we DirectX en drivers hebben, zodat de game niet direct met de GPU hoeft te interfacen maar met een gestandaardiseerde API?
In het oorspronkelijke nieuwsbericht staat wat meer informatie van onze gpu-reviewer Reinoud!
Dank, goed antwoord op een ook goede vraag. Wellicht linken hiernaar in het artikel? Want dit was werkelijk de eerste vraag die bij mij opkwam en ik had dat eerdere artikel gemist (en ben blijkbaar niet de enige).
Er staat een link naar dat bericht in het artikel :D hopelijk vindt de rest het via de bovenstaande comment!
Oh ik zal beter moeten kijken dan :p
Waarschijnlijk omdat die abstractie lekt.

APIs zoals DirectX en Vulkan zijn hebben optionele features. Niet elke GPU implementeert alle optionele features. Het kan dus best zijn dat CD gebruikt maakt van een DX feature die niet aanwezig is in de Arc GPU’s
DirectX heeft in principe geen optionele features. Dat extensie-gedoe is echt een Vulkan ding omdat de standaard daar zo traag gaat.

Zie bijvoorbeeld hoe hardware ray tracing werd geïntroduceerd toen het nog experimenteel was;
https://developer.nvidia.com/blog/introduction-nvidia-rtx-directx-ray-tracing/
Dat ging direct via de standaard, met een beta versie van DirectX, die een maand na de introductie van RTX 20 al final was.

[Reactie gewijzigd door Wolfos op 23 maart 2026 15:30]

Hoewel het niet zo extreem is als het extensie gedoe bij Vulkan is het niet helemaal waar dat er geen optionele features zijn. In DirectX11 en 12 moet je vaak een query doen om te kijken welk niveau een videokaart ondersteund. Zo kan bijvoorbeeld de maximale texture grote of het maximale multi-sample niveau verschillen per kaart en mag je er bijvoorbeeld eigenlijk niet van uit gaan dat elke kaart 16xMSAA ondersteund. Random voorbeeld: https://learn.microsoft.com/en-us/windows/win32/direct3d12/capability-querying

Maar ik vermoed dat hier niet percee de fout licht. Hoewel DirectX een mooie en duidelijke standaard is zul je als je het over een project hebt met miljoenen regels code altijd een plek vinden waarbij verschillende fabrikanten iets allemaal net iets anders hebben geinterpreteerd.
Maar deze feature levels zijn vereisten voor een bepaalde standaard (documentatie niet up-to-date). Je hebt alleen tijdens overgangsperiodes dat kaarten sommige features wel ondersteunen maar niet de hele standaard (denk aan de GTX 16 die DirectX 12.2 onvolledig ondersteunt).

Waar het wel aan ligt kunnen we niet zeggen- de game blokkeert momenteel deze GPU's als "niet ondersteunt". Het zou kunnen dat het anders best zou werken.

[Reactie gewijzigd door Wolfos op 23 maart 2026 20:21]

DirectX 12 gaat al een tijdje mee. In de tussentijd zijn er veel fabrikantspecifieke extenties toegevoegd door AMD/NVIDIA. Ook zit tussen de implementaties van de standaard zelf soms verschil tussen de implementaties van AMD/NVIDIA/Intel. De standaard laat hier soms wat ruimte voor over, maar soms is de implementatie van de fabrikant om wat voor reden dan ook gewoon fout.

Effectief komt het er op neer dat je als je een beetje gebruik wilt maken van de laatste technieken, je voor elke fabrikant een apart codepad moet programmeren. Iets wat dusdanig ingewikkeld is dat de meeste ontwikkelaars het maar hebben opgegeven en unreal zijn gaan gebruiken.
Zeker, maar die API's hebben zelf ook weer verschillende extensies, welke GPU's danwel of niet ondersteunen. Hier bijvoorbeeld een database voor ondersteuningsgraden in Vulkan: https://vulkan.gpuinfo.org/listextensions.php
Je auto heeft ook een standaard interface - gas, schakelpedaal, rem, schakelpook. Toch kun je in sommige auto's niet in een 5e of 6e versnelling schakelen, en werkt de achteruitbeveiliging bij verschillende autos toch net op een iets andere manier. Op precies zo'n manier kan het ook zo zijn dat Crimson Desert het equivalent doet van de pook omlaag duwen om achteruit te gaan, maar dat deze GPU juist een ander mechaniek heeft - en dat komt niet noodzakelijkerwijs naar voren bij andere GPUs.
Het is onduidelijk of het publieke statement van Intel iets aan het beleid van Pearl Abyss veranderd heeft. In de faq suggereert het Zuid-Koreaanse bedrijf dat het mogelijk om een miscommunicatie ging: "We verontschuldigen ons voor de eventuele verwarring en de eerdere bewoording in de faq aangaande de speelbaarheid op Intel Arc-gpu's."
Ik zou zeggen dat het actief blokkeren van het spel wanneer je een Arc GPU hebt moeilijk kunt spreken van een miscommunicatie.
De miscommunicatie zit hem misschien in het feit dat Pearl Abyss niet communiceerde dat er wel aan ondersteuning gewerkt werd. Dat lijkt het statement van Intel in ieder geval te suggereren
Het kan wel een miscommunicatie zijn als ze dat doen omdat het spel gewoon echt niet werkt op Arc en zij dat liever voor zijn door het helemaal te blokkeren, maar de klanten vatten het op als "wij haten Intel dus je mag de game er van ons niet op draaien".

Stel bijvoorbeeld dat de game het eerste uur wel goed werkt maar dan kom je bepaalde effecten tegen waar de game iedere keer van crasht. Dan kan ik me best voorstellen dat ze er voor kiezen om te zeggen doe maar liever helemaal niet. Maar dat zou dan dus wat onhandig gecommuniceerd zijn.

Of dat zo is? Geen idee want ze communiceren nog steeds niet heel duidelijk of uitgebreid.
Als iets niet specifiek wordt genoemd dat het niet ondersteund wordt, dan mag je er als gamer vanuit gaan dat het wel ondersteund wordt, lijkt me. Ik heb de systeemeisen niet gevolgd van CD, maar volgens mij was juist dát het geval. Er werd genoemd wat ondersteund werd, maar niet wat niet ondersteund werd. Dan zou ik er gemakshalve ook vanuit gaan dat de game zou draaien, met in het achterhoofd dat het niet gaat om (optimale) specs. Maar dat het helemaal niét draait, dat is toch wel een beetje jammer.
Wat je nu zegt is dus de omgekeerde wereld.

Je hebt een lijst met wat wel ondersteund word zodat je al het ander niet hoeft te benoemen. Anders krijg je voortaan bij iedere game een lijst met zaken waar het niet op draait: broodrooster koffiezetapperaat oven, raspberry PI, 1e dos pc van mijn vader enz.

Beetje flauw lijstje weet ik, maar het is toch raar dat je dus er maar vanuit gaat dat als het NIET op de lijst staat wat WEL ondersteund word het dan toch wel zou werken.
Oké.. een beetje gechargeerd. Maar als ik lees dat bij de minimale specs een 1060 staat (een kaart uit 2016), dan denk ik zelf dat een moderne Arc-GPU hier toch ook wel tussen zou passen. In vroegere tijden stond er gewoon een minimum aantal MB (haha) bij wat je videokaart moest hebben. Maar blijkbaar verschilt de werking zo enorm, dat ze nu dus geen ondersteuning kunnen bieden. Maar dan had ik een regeltje verwacht bij de specs dat Intel Arc niet wordt ondersteund. Dat is hier niet het geval.
Zoals ik al aangaf inderdaad een beetje flauw lijstje maar was meer bedoelt om een punt te maken.

Als ik na de eisen kijk zie ik een AMD kaart en een Nvidia kaart vermeld staan. Dan zou ik al vraagtekens zetten bij een Intel kaart en er zeker niet vanuit gaan dat het dan wel zal werken.
"We verontschuldigen ons voor de eventuele verwarring en de eerdere bewoording in de faq aangaande de speelbaarheid op Intel Arc-gpu's."
Ik schrijf alvast dat mocht ik iets zeggen, dat ik dan achteraf zeg dat jullie verward waren en het niet aan mij lag. :+

Waarom doen bedrijven dit? Prikken mensen daar echt niet doorheen? Zeg gewoon dat je geen interesse had om Intel GPUs te ondersteunen, zo moeilijk lijkt het me niet?

Tegen de Linux-community vinden ze het doorgaans geen probleem te zeggen dat ze het niet willen ondersteunen, en wij allemaal cheaters zijn.

[Reactie gewijzigd door HollowGamer op 23 maart 2026 15:25]

Goede zaak, we hebben intel nodig in de GPU markt. Er is een gebrek aan concurrentie en we hebben eindelijk een derde speler.
Het zou mij overigens niks verbazen dat het op Intel gpu's werkt, maar dan alleen op Linux via proton en niet in Windows. Op protondb zie ik helaas nog geen meldingen van mensen met een Intel kaart.
Ik begrijp niet helemaal waarom de insteek van de auteur lijkt te zijn dat ze dit expres deden en niet omdat het simpelweg geen hoge prioriteit had, wat op zich logisch is als je kijkt naar wanneer de ontwikkeling van deze game gestart moet zijn, pas afgelopen jaar kun je spreken van een GPU die nog enigszins in de buurt komt van wat je moet hebben voor fatsoenlijke graphics. Daarnaast stond het niet in de systeemeisen dus hadden ze nog wel een zaak dat consumenten simpelweg niet goed gekeken hadden. Al kan ik mij voorstellen dat het ook weer niet schokkend veel werk zal zijn om deze game te laten draaien. Veel games zijn zonder veel moeite al gepoort.

[Reactie gewijzigd door Martinspire op 23 maart 2026 21:23]

Maarja, in de systeemeisen staat ook alleen maar minimum specs gtx1060 / rx5500, dat zegt niets of een RTX3060 ook zeker ondersteund wordt, ja, je gaat er wel van uit.

Heeeel veel spellen staat niet bij of de ARC gpu's ondersteund worden, maar zo goed als elk spel dat minimaal een Rx5500 of een GTX1060 nodig heeft draait ook op een ARC GPU.

Om te kunnen reageren moet je ingelogd zijn