Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD zet deur open voor Smart Access Memory op Intel-cpu's en GeForce-gpu's

AMD wil in gesprek met Intel en Nvidia om onderlinge Smart Access Memory-ondersteuning, dan wel Resizable BAR-ondersteuning, mogelijk te maken. Daarmee zouden de prestaties bij bepaalde games een verbetering kunnen krijgen, ongeacht het platform.

De Radeon-groep van AMD wil met Intel samenwerken om de Smart Access Memory-ondersteuning mogelijk te maken op Intel-processors en de Ryzen-divisie is bereid om met Nvidia samen te werken voor ondersteuning bij GeForce-videokaarten. Dat zegt AMD's Scott Herkelman van de Graphics Business Unit tegen PCWorld. "Er zijn gesprekken gaande voor als ze interesse hebben om deze functionaliteit in te schakelen voor AMD-platformen. Wij gaan ze niet stoppen, sterker nog, ik hoop dat ze het doen." Volgens Herkelman is er nog wel werk aan de winkel als concurrenten dit willen activeren en moet Intel hier bijvoorbeeld voor samenwerken met zijn moederbordpartners.

AMD kondigde Smart Access Memory aan als functie van de Radeon RX 6000-videokaarten met gpu's op basis van de RDNA2-architectuur. De functionaliteit laat processors een veel grotere hoeveelheid van het videogeheugen benaderen dan standaard mogelijk is. Volgens het bedrijf kunnen gamers een prestatieverbetering van maximaal 11 procent tegemoet zien met de SAM ingeschakeld. Bij de aankondiging maakte het bedrijf bekend dat SAM alleen functioneert bij gebruikmaking van een Ryzen-processor uit de 5000-serie op een 500-serie moederbord, in combinatie met een RX 6000-serie videokaart. Bovendien moeten moederbordfabrikanten de functie toevoegen via een bios-update.

Gebruikers die erin geslaagd zijn om een RX 6000-kaart te bemachtigen, dienen hun driver bij te werken naar AMD Radeon-driverversie 20.11.2 of nieuwer. Aanvankelijk hadden de ASUS X570 Crosshair VIII Hero WIFI, ASRock X570 Taichi, Gigabyte Aorus X570 Master en MSI X570 Godlike ondersteuning, maar inmiddels komen er meer moederborden bij. Zo heeft MSI aangekondigd dat met zijn laatste bios-update alle 500-serie moederborden SAM ondersteunen.

Resizable BAR, een oude PCIe-functie

Gebruikers dienen de functionaliteit zelf aan te zetten en moederbordfabrikanten gebruiken de naam Smart Access Memory niet; de functies die geactiveerd dienen te worden, zijn bij de PCI-instellingen te vinden onder de namen Above 4G Decoding of Above 4G Memory en Resizing BAR of Resizable BAR. Dat moederbordfabrikanten die naam gebruiken, is niet vreemd. AMD's Smart Access Memory is namelijk gebaseerd op de Resizable BAR-capaciteit die al sinds 2008 in de PCI Express-specificatie staat. AMD stelde in 2015 al patches voor de Linux-kernel voor om ondersteuning te krijgen en Windows heeft het sinds 2017 in het Windows Display Driver Model.

BAR staat daarbij voor base address register. Bij een PCIe-apparaat met geheugen specificeren de BAR's hoeveel geheugen te mappen is en elke BAR correspondeert met een adresreeks die als communicatiekanaal naar het PCI-apparaat dient. Standaard zijn de BAR's gelimiteerd tot 256MB vanwege compatibiliteit met 32bit-besturingssystemen. Om de processor meer videogeheugen aan te laten spreken, waren tot nu toe workarounds nodig. Dankzij de Resizable BAR-functie kan de hardware aangeven welk deel van het geheugen ingezet mag worden en wordt het dus mogelijk al het videogeheugen aan te spreken, wat AMD met Smart Access Memory doet.

In feite bestaat die functie dus al lang. Dat AMD er nu mee komt, heeft te maken met het feit dat het bedrijf de hele noodzakelijke keten beheert, van cpu en moederbord tot videokaart, en er daarmee zelfstandig mee kan komen. Met de Radeon RX 6000 speelt AMD weer mee in het 'enthousiastsegment', dus is het bedrijf er veel aan gelegen zoveel mogelijk prestaties uit de kaarten te persen. Daarnaast speelt mee dat de AMD 500-serie PCIe 4.0 biedt en dus voldoende bandbreedte om daadwerkelijk voordeel te bieden uit een directe benadering van al het videogeheugen.

Daarmee zou je verwachten dat ook de combinatie van een Radeon RX 6000 met een Ryzen 3000-processor op een X570-moederbord ondersteuning voor SAM krijgt, maar daar zijn geen plannen voor, maakt AMD duidelijk. Het bedrijf richt zich op de Ryzen 5000. Technische obstakels lijken er niet te zijn en zelfs moederborden met PCIe 3.0 zouden gewoon SAM-, dan wel Resizable BAR-ondersteuning moeten kunnen krijgen, al is niet duidelijk wat dan de prestatiewinst zou zijn.

Prestatiewinst varieert

De prestatiewinst van Smart Access Memory varieert nogal per game. AMD zelf spreekt van 5 procent winst op 4k-resolutie voor Borderlands 3 met SAM ingeschakeld, en 11 procent winst bij Forza Horizon 4. Tweakers zag nauwelijks winst bij Far Cry New Dawn en Shadow of the Tomb Raider en iets hogere prestaties bij Red Dead Redemption en Troy. Bij Digital Foundry leidde de inschakeling van SAM tot een aardige prestatiewinst bij Borderlands 3 en Control, maar vooral op 1080p en niet bij andere games. Bij Gamers Nexus wisten zowel de 6800 als de 6800XT hogere fps neer te zetten bij Shadow of the Tombraider, zowel op 1080p als 4k, maar bij de andere games was er geen of minder verschil.

Het is ook mogelijk dat games juist minder presteren door SAM, afhankelijk van hoe de game-engines hier mee omgaan. AMD heeft Gamers Nexus verteld dat games die een verslechtering vertonen, SAM niet kunnen gebruiken en ook Nvidia heeft al aangekondigd met een soort 'zwarte lijst' voor games te gaan werken, zodra Nvidia zijn eigen variant van Resizable BAR gaat introduceren. Wanneer dat het geval zal zijn, is nog niet bekend, maar Nvidia heeft al gezegd dat het deze ondersteuning voor videokaarten met Ampere-gpu met een toekomstige software-update gaat introduceren. Dat draagt eraan bij dat we zeker nog meer gaan horen over deze technologie.

Door Olaf van Miltenburg

Nieuwscoördinator

20-11-2020 • 17:50

121 Linkedin

Submitter: Randomguy369

Reacties (121)

Wijzig sortering
volgens mij werdt raytracing real time een ding omdat microsoft het wou?

zoals ik begrepen heb is raytracing in samenhang met zowel intel/amd als nvidia in de dx12 api opgenomen onder de name DXR. Nvidia was wel de eerste die er ook vol op inzette met marketing en hun tensor cores. en rebrand naar RTX

wat nvidia heel goed kan is bij mensen in het hoofd kruipen. het staat immers nu bekend als het raytracing merk.
Real time raytracing wordt al een tijd gevraagd maar geen GPU bouwer die zijn vinger hiet nog aan wilde branden omdat het gigantisch veel performance kostte. Raytracing is uiteraard niets nieuws en is in de film productie wereld/render wereld gewoon standaard maar dit kost dus extreem veel rekenkracht. Dat dit nu in 1 klap voor gaming doeleinden in real time kon is gewoon een prestatie (nogsteeds met concessies van full path tracing is te zwaar nog). RTX branding was een goede marketing truuk ja, maar het is niet proprietary, het gebruikt gewoon de DXR standaard.

Maar AMD doet niet anders, variable rate shading bijvoorbeeld wat Nvidia al een tijd terug in games als Shadow Warrior 2 en Wolfenstein Young BLood had geintroduceerd wordt nu opeens ook rebranded als FidelityFX door AMD gemarket. Beide partijen doen dit.
Je klinkt een beetje als een Nvidia fanboy. Dat Nvidia innoveert is mooi, maar dat ze niet willen dat hun innovaties op andere hardware werkt en er zelfs veel aan doen om dit tegen te gaan is niks positiefs aan wat mij betreft. Ook het feit dat ze geprobeerd hebben premium merken zoals ROG exclusief Nvidia te maken is op zijn zachts gezegd niet netjes. Tot Nvidia hier iets aan doet heeft AMD bij mij in ieder geval een streepje voor als het gaat om de aanschaf van een videokaart.
Alleen Gsync was proprietary technologie vanwege de scaler. Raytracing maakte gewoon gebruik van de DXR standaard. Alle RT games behalve de volledige pathtracing games als Minecraft en Quak 2 RTX draaien gewoon op de RDNA2 hardware van AMD.

Nog verdere argumenten? Beetje goedkoop om het meteen onder het kopje fanboy te scharen wanneer het beargumenteerd wordt waarom.
Ik noem je geen fanboy, ik zeg dat je klinkt als een fanboy. Je enige argument waarom mensen niet negatief moeten zijn over Nvidia is omdat ze innoveren. Daar zet ik tegenover dat ik minpunten zie aan hun innovaties omdat ze het voor hunzelf houden. Raytracing is inderdaad niet proprietary omdat dit al bestond, anders was het dat ook wel :) . Er zijn verder genoeg redenen om negatief te zijn over Nvidia. Onder andere:
  • GameWorks waarbij Nvidia het verbood game devs hun broncode met AMD te delen, wat driver optimalisatie voor AMD lastiger maakte
  • Geforce Partner Program waar Nvidia de naam "Gaming" brand voor zichzelf wou en AMD videokaarten niet dit label mochten hebben
  • Closed source drivers voor Linux en geen interesse om samen te werken met de Linux community
Niemand is perfect, maar jij vindt dat men niet negatief over Nvidia mag zijn. Ik vind dus van wel. Ieder zo zijn mening :)
Niemand is perfect, maar jij vindt dat men niet negatief over Nvidia mag zijn. Ik vind dus van wel. Ieder zo zijn mening
Ik zeg dat mensen vanuit het licht van de industrie moeten kijken en alle merken op dezelfde manier moeten beroordelen.
GameWorks waarbij Nvidia het verbood game devs hun broncode met AMD te delen, wat driver optimalisatie voor AMD lastiger maakte
Gameworks is een hoop Nvidia tech, het is niet alsof AMD zijn inner workings deelt van bijvoorbeeld hun nieuwe FidelityFX hoe zij dit precies doen al is het grotendeels soortgelijke tech als wat Nvidia al heeft. TreshFX was ook een typisch AMD iets wat eigenlijk alleen echt lekker draaide op AMD hardware toen. Of dat Mantle destijds proprietary waren. Ik vind dit wel logisch binnen deze de industrie al zou dat alles open zou zijn natuurlijk mooier. Maar dat laatste is niet reeel. Je geeft niet je geheimen prijs aan de concurrentie.
Geforce Partner Program waar Nvidia de naam "Gaming" brand voor zichzelf wou en AMD videokaarten niet dit label mochten hebben
Dat het niet netjes was, klopt maar het is wel enigzins opgeblazen door rumors. Denk dat wij nooit het volledige verhaal te horen krijgen.
Closed source drivers voor Linux en geen interesse om samen te werken met de Linux community
Dit zie ik dus als een logisch iets aangezien Nvidia enorm veel technologie offload naar de drivers en rechstreets iznicht in hun inner workings geeft.
Wayland heeft X11 vervangen bij veel grote distro's (Fedora, Debian, openSUSE Tumbleweed, Red Hat Enterprise Linux, SUSE Enterprise Linux) en het is de bedoeling dat dit vroeger of later bij de andere distro's ook gebeurt aangezien het meer performance biedt en minder onderhoud gaat vergen. Je hoeft mij niet te geloven:
Starting around 2010, Linux desktop graphics has moved from having "a pile of rendering interfaces... all talking to the X server, which is at the center of the universe" towards putting the Linux kernel and its components (i.e. Direct Rendering Infrastructure (DRI), Direct Rendering Manager (DRM)) "in the middle", with "window systems like X and Wayland ... off in the corner". This will be "a much-simplified graphics system offering more flexibility and better performance".
- Jonathan Corbet, Linux Kernel Dev

Dus zo 'niche' is het niet. Closed source drivers zoals die van NVIDIA zijn de reden waarom distro's backwards compatibility aanbieden voor gebruikers door ze de optie te geven om X11 bovenop Wayland te laten draaien.
Waar een hoop mensen nie tbij stilstaan is dat Nvidia relatief veel van hun GPU technieken uitwerkt in hun drivers, de reden dat dit clsoed source is, is het tegenwerken van het uitpluizen van hun technieken. Dus dat zij het niet vrijgeven is enigzins als je er objectief naar kijkt begrijpenlijk. Helemaal omdat dit meer consumetnen gerichte kaarten zijn (op Quadros na). Ik denk niet (met mijn hobby kennis van Linux) dat je de genoemde distros wilt gaan gebruiken voor meer grafische productivity. Compute zou een use case zijn. Maar zoals je zelf aangeeft is er grotendeels een backwards compatibility fallback
Het is, objectief gezien, begrijpelijk dat de drivers closed source zijn? Staat er vervolgens niet bij stil dat andere OSen (zoals de BSDs en Haiku) ook die driver niet kunnen gebruiken. Iedereen gebruikt verder FOSS drivers in de kernel, behalve het zgn. innovatieve bedrijf Nvidia.

Vervolgens wel Quadro noemen. Ah ja, die dingen die wel met passthrough werken, ook zo'n smerige streek.

Wayland is al meerdere keren ter sprake gekomen; Nvidia remt hiermee de innovatie. Voor ZeroNine is Wayland een niche, een "edge case". Een Nvidia fanboy die zogenaamd objectief is ga je niet overtuigen.
Ja, die nuance schijn jij niet te weten, dus ik zal hem toevoegen:

Iedereen, maar dan ook iedereen, behalve nvidia gebruikt GBM en ondersteund dat. Alle software ondersteund al GBM, en er was geen probleem met GBM. GBM bestond al *voor* dat EGLstreams werd gemaakt.
Er was dus geen enkele reden voor hun eigen implementatie.
Het is een voorbeeld.

Iemand's use case als irrelevant degraderen is niet authentiek.

Dat je veilige drivers wilt ipv drivers waar iedere paar maanden weer een lek in ontdekt wordt is zeker ook zijn usecase en niet de norm...

Dat iedere driver in de Linux kernel FOSS is, behalve die van Nvidia, is zeker ook niet de norm...

Je zegt elders:
Ik vind mensen vaak ten onrechte vrij negatief jegens Nvidia staan terwijl ze wel vaak innovatie pushen om "gaming" beter te maken.
Jij bent ten onrechte vrij postiief jegens Nvidia.

[Reactie gewijzigd door Jerie op 21 november 2020 15:03]

Klopt, jouw bias is niet voor de underdog, die is voor de topdog. Je koopt wat jij het beste vindt. Dat is iets anders dan 'wat het beste is. Ik vind de drivers van Nvidia, voor zowel Linux als macOS, net zoals @dec0de verwoorde, in een woord: kut. Tegenargument wordt dan: jouw use-case is irrelevant. Tja, met zo'n dooddoener ben je mooi klaar met discussiëren.

Het feit dat ik hier een half levende MBP 2010 heb liggen met een stukke discreet Nvidia GPU die ze weigerden te vervangen, mag ik zeker ook niet meenemen in mijn beslissing dat ik inderdaad vooringenomen bias heb die tegen Nvidia spreekt.

Ik neem mee de houding van een bedrijf, en hoe vriendelijk ze zijn jegens FOSS. Zaken als FreeSync, ROCm, CUDA, en Vulkan neem ik dan mee. Want dat vind ik van belang. En dan is AMD een prima bedrijf. Intel overigens net zo goed. Intel maakt goede drivers voor hun hardware, en die hardware is prima (daarom ook enthousiast over ontwikkelingen rondom Intel GPUs; concurrentie is goed!). Het is wel een beetje appels en peren ivm grootte van bedrijven.

Koop ik nooit meer Nvidia? Dat ook niet. Ik heb een Nvidia Shield Pro want dat is goed product voor een schappelijke prijs. Ik had ook een Nvidia Shield Tablet, ook een prima product. Misschien krijgen mijn kinderen wel een Nintendo Switch van Sinterklaas dit jaar. Maar als ik de keus heb, ga ik voor AMD, ook als dat een paar tientjes meer kost. Waarom? Hierboven staan een aantal voorbeelden.
Klopt, jouw bias is niet voor de underdog, die is voor de topdog. Je koopt wat jij het beste vindt. Dat is iets anders dan 'wat het beste is.
Qua hardware was Nvidia de laatste 5 jaar wel degelijk de beste keus, qua performance, qua odnersteunign voor professionele toepassingen, qua betrouwbaarheid dankzij de betere focus van board partners op deze hardware etc. Voor cojmputer, 3D rendering pipelines etc is er zeer weinig support voor AMD hardware. Octane renderer? Vergeet het maar. Dat macOS geen ondersteuning boodt voor Nvidia hardware ligt aan Apple en hun focus. Kan je Nvidia niet aanrekenen, zij implementeren het niet in hun hardware ondanks dat het vooral in hun laptops ervoor zou zorgen dat het allemaal wat vlotter zou draaien.
Het feit dat ik hier een half levende MBP 2010 heb liggen met een stukke discreet Nvidia GPU die ze weigerden te vervangen, mag ik zeker ook niet meenemen in mijn beslissing dat ik inderdaad vooringenomen bias heb die tegen Nvidia spreekt.
Mijn oude Samsung Ativ Book 8 met een Radeon 8870M welke een reflow sessie nodig had mag anders wel op dat stapeltje. Mag je de EU voor bedanken dat loodvrij solderen de norm werd en de industrie gewoon nog niet klaar ervoor was. Of dacht je dat de in die periode alleen Nvidia GPU's sneuvelden?
Ik neem mee de houding van een bedrijf, en hoe vriendelijk ze zijn jegens FOSS. Zaken als FreeSync, ROCm, CUDA, en Vulkan neem ik dan mee. Want dat vind ik van belang. En dan is AMD een prima bedrijf. Intel overigens net zo goed. Intel maakt goede drivers voor hun hardware, en die hardware is prima (daarom ook enthousiast over ontwikkelingen rondom Intel GPUs; concurrentie is goed!). Het is wel een beetje appels en peren ivm grootte van bedrijven.
Alleen de negatieve kanten van partij A benoemen maar niet partij B als tegenhanger en de positieve kanten benoemen is gewoon niet fair. Kon bijvoorbeeld Nvidia freesync eerder open gooien voor hun Geforce kaarten? Ongetwijfeld. Was dit de beste keus? Ik denk het niet. Geen enkele andere partij dacht op dit moment aan variable refresh rates en ondanks dat er een vesa standaard was, waren de wildgroei aan scalers van verschillende scherm bakkers gewoon niet geschikt en of consistent genoeg ervoor. Nvidia investeerd in hun eigen scaler (wat tot op heden nogsteeds 1 van de beste op de markt is zo'n 8 jaar later). Zet een eco systeem ervoor op, zorgt ervoor dat vrijwel elke Gsync scherm dezelfde consistente ervaring biedt met dezelfde VRR range. Freesync wat daarna kwam kon soms een 56hz tot 75hz sync range zijn alleen tot een volledige 45hz tot en met 144hz bijvoorbeeld. Het ene scherm had vblank issues, het andere weer zichtbare flickeringen etc Oftewel je kon er niet vanuit gaan dat Freesync werkte, dat het een goede ervaring boodt etc. Maarja het was wel goedkoper. Heeft Nvidia dan het verkeerde gedaan? Ik denk dat je in heel veel bochten moet wringen wil je dit tegen kunnen spreken. Het was prijziger ja, maar voor goed spul mag er best betaalt worden.

Betreft Cuda en rendering op Nvidia spul (Waarvoor ik overigens mijn GPU's gebruik om mijn brood te verdienen), Nvidia heeft de professionele sector veel beter bijgestaan dan AMD. Het is mij dan ook een raadsel waarom Apple bleeft vast houden aan AMD want het boodt gewoon niet dezelfde experience en AMD's zijn eigen renderen heeft gewoon erg veel render fouten in zijn pipeline zitten.

Dit is mijn reden waarom ik niet negatief gestemd ben betreft Nvidia, hebben zij nooit misstappen gemaakt? Dit zal ik nooit ontkennen. Daarom ben ik niet brand loyal. Ik koop gewoon wat op dat moment het snelste/beste is voor mijn usecase en dat is de laatste 10 jaar Nvidia geweest, ondanks dat ik toch nog afentoe even een AMD GPU hier en daar kocht om mee te experimenteren.
Als we de houding van een bedrijf beoordelen tov een bepalde niche, lijkt het mij niet meer dan logisch dat we ze afkeuren op het negeren van die bepaalde niche toch? Want dat doen we, we beoordelen hun linux ondersteuning, het mag dan wel onbelangrijk zijn voor hun inkomen, ik mag ze daar op afkeuren en daarom gaan voor AMD
Dat laatste is uiteraard prima, more power to you. Maar meteen iemands anders mening afschilderen als lulkoek terwijl je een edge case uit zoekt is nogal erg meh op zijn minst.
Dat laatste is uiteraard prima, more power to you. Maar meteen iemands anders mening afschilderen als lulkoek terwijl je een edge case uit zoekt is nogal erg meh op zijn minst.
Edge case? Het is een voorbeeld.

Net zoals raytracing en gsync ook voorbeelden zijn. Nou vond (want ik heb er geen last meer van) ik tearing verhelpen interessant. Het is ook niet makkelijk op te lossen als je ook latency van belang vindt (en dat is al een tip van hoe gsync eigenlijk werkt). Daarentegen raytracing vind ik niet zo boeiend (zeker gezien de prijzen van de 2000 series destijds).

Je stelde verder:
Nvidia heeft prima drivers voor linix, deze zijn alleen niet open source.
Ten eerste schrijf je de naam al fout (wat al zorgen baart) ten tweede zijn die drivers gewoonweg niet 'prima'. Je hebt het enerzijds over de fantastische innovatie van Nvidia.

Heb jij enig idee mbt de innovatie van Wayland? Of die van X.org? Ik zal je een tipje geven alvorens je dat op gaat zoeken: X.Org is abandonware. En 3x raden wat er niet werkt met Wayland? Juist, die ja.

Maar ja, da's een edge case, want tja, "niemand gebruikt Wayland". Als de grootste GPU boer het niet ondersteunt wordt het nooit wat. En vervolgens in een andere post het hebben over hoe innovatief Nvidia is en beweren neutraal te zijn? Hou toch op man.

[Reactie gewijzigd door Jerie op 21 november 2020 16:24]

Edge case? Het is een voorbeeld.
Is een edge case opeens geen voorbeeld meer? Er is nu alleen een prioteit aan gekoppeld.
Net zoals raytracing en gsync ook voorbeelden zijn. Nou vond (want ik heb er geen last meer van) ik tearing verhelpen interessant. Het is ook niet makkelijk op te lossen als je ook latency van belang vindt (en dat is al een tip van hoe gsync eigenlijk werkt).
Gsync voegt geen noemenswaardige latency toe en dat is juist het mooie van de technologie. Dat jij het nie tbelangirjk vindt is prima. Statistisch zijn er een hoop gamers die dit wel belangrijk vinden. Het heeft letterlijke de gaming monitor industrie uit de grond gestampt.

Raytracing, prima jij vindt het niet belangrijk. Mensen uit de industrie zien dit als de enige noemenswaardige manier om graphics vooruit te duwen. Rasterization zit op een doodlopend spoor onderhand. Dat jij de 20XX serie te prijzig vindt is eigenlijk een beetje jouw probleem. Gezien de jump in chipgrootte, complexiteit, plat gezegd het aantal transistors was het gerechtvaardig en het heeft uiteindelijk wel ervoor gezorgd dat raytracing nu een factor is in zelfs de mainstream consoles die afgelopen week zijn uitgekomen.
Ten eerste schrijf je de naam al fout (wat al zorgen baart) ten tweede zijn die drivers gewoonweg niet 'prima'. Je hebt het enerzijds over de fantastische innovatie van Nvidia.
Boehoe een typo omdat ik een post op een mobieltje typ. Hou het even over het onderwerp. Als dual boot draai ik Ubuntu en zelfs met mijn ongewonere monitor setup voldoet het meer dan prima voor het toepassen van mijn professionele workloads waar ik uiteindelijk mijn geld mee verdien. Al is dat laatste een experiment om te kijken alleen al of ik buiten de gevestigde platformen binnen production mijn werk zou kunnen doen. De drivers zijn stabiel, doen wat het moet doen en de performance is goed. Wat voegt de open source kant toe voor 90% van de prosumers op dit moment? Het is maar een zeer kleine selectie wat hier echt verder op gaat bouwen.

Maar pas op, je bias sijpelt uit je post. Is het perfect? Nee, maar helaas is niets dat op Linux., Een opinie stuk aanhalen versterkt overigens niet je punt.
Alles wat je hier roept is oud nieuws. Het is 2020 en geen 2014.

Je bent biased en je baseert je op sterk verouderde info. Ik zou weer even wat kennis gaan bijpunten, want je staat voor lul zo. Tenenkrommend.

Getekend, Nvidia klant...

[Reactie gewijzigd door Vayra op 22 november 2020 11:03]

Argumenten or go home. Dit is juist tenenkrommend.

Ik wist niet dat er raytracing acceleratie op GPU's in 2014 beschikbaar waren?

Iets roepen zonder argumentatie kan iedereen 8)7

Getekend, iemand welke zijn inkomen maandelijks binnenhengelt door middel van digitale productie en design.
Nee, ik heb geen tijd voor 26 posts zoals jij ze hier hebt laten zien... 8)7

Maar dat doe je vast voor de lol.

[Reactie gewijzigd door Vayra op 23 november 2020 07:59]

Zeg dan gewoon helemaal niets als je niks toe te voegen hebt. Tenenkrommend zoals je zelf zegt. 8)7

Next
Dit is een gevalletje 'te ver heen'. Onbegonnen werk om die vijftien pagina's punt voor punt te corrigeren... Je bevestigt in elk geval dat beeld prima - de eindeloze discussie die ik niet in ga stappen, ga jij zonder moeite voeren ;)

Degenen die het hierboven probeerden wachtte eenzelfde lot hoe redelijk de argumenten ook waren. Veel plezier ermee, in je eentje. De tip van de dag: reflecteer. En nee dat betekent niet 'hetzelfde terug geven'.

'Next'... alsof je iets staat te verdedigen... het zou hilarisch zijn als het niet zo in en in triest was. Dit is de definitie van fanboyen en je ziet het niet eens. Maar misschien valt het kwartje nu, botter kan ik de bijl niet maken.

[Reactie gewijzigd door Vayra op 23 november 2020 11:34]

Dit is een gevalletje 'te ver heen'. Onbegonnen werk om die vijftien pagina's punt voor punt te corrigeren... Je bevestigt in elk geval dat beeld prima - de eindeloze discussie die ik niet in ga stappen, ga jij zonder moeite voeren ;)
Ga het uberhaupt dan ook niet aan zonder argumenten, nu kom je als niks meer over dan een troll, even je zegje doen zonder enige substantie. [/quote]
Degenen die het hierboven probeerden wachtte eenzelfde lot hoe redelijk de argumenten ook waren. Veel plezier ermee, in je eentje. De tip van de dag: reflecteer. En nee dat betekent niet 'hetzelfde terug geven'.
Argumenten die jij niet brengt.
'Next'... alsof je iets staat te verdedigen... het zou hilarisch zijn als het niet zo in en in triest was. Dit is de definitie van fanboyen en je ziet het niet eens. Maar misschien valt het kwartje nu, botter kan ik de bijl niet maken.
Nee het is alleen een indicatie van dat jij meer tijd niet waard was dan even in 30sec een reply te typen.

Ver heen als jij denkt dat je ook maar iets toevoegde aan de discussie waar anderen dit wel deden, een soort van "kijk mij, ik besta ook" momentje.

[Reactie gewijzigd door ZeroNine op 23 november 2020 12:04]

Ja, dat is het. :+

[Reactie gewijzigd door Vayra op 23 november 2020 11:55]

Inderdaad, geniet nog van je dag :+
nVidia en Intel zijn ook lid van die PCI-special interest group.

Wat ik mij kan voorstellen is dat AMD ideeën heeft in welke richting de bestaande Resizable Bar functionaliteit nog verder kan worden verbeterd. Dit kan AMD echter niet alleen bepalen, daarover kunnen alle members van de PCI-SIG hun zegje doen. Vanuit dit oogpunt kan het dus voor AMD profijtelijk zijn om haar concurrentie ook betrokken te krijgen in het type gebruik van Resizable Bar dat zij beoogd. Hebben AMD, Intel en nVidia een gedeeld belang dan zal het een stuk makkelijker worden het eens te worden over toekomstige veranderingen in de PCI-e interface.

Ondanks dat dit dan uitpakt als begrepen eigenbelang van AMD, en wat minder als onbaatzucht, zou ik dit nog steeds als een pragmatische ontwikkeling zien en een nette manier om de ontwikkeling van een gemeenschappelijke interface verder te helpen en in de richting te laten bewegen die AMD zich voorstaat.
Ho ho ho, niet zo snel. Freesync is niks anders als een rebrand van wat er al aanwezig was in de VESA standaard. Het was vooral nVidia die kwam met het idee en een nogal zeer complexe implementatie.

Freesync 1 was royalty free want wat is het nut van royalties vragen? Iedereen kan Diezelfde VESA functie pakken, er een andere sticker opplakken. Zelfde beestje andere naam. Met de komst van Freesync 2 moet je als fabrikant betalen voor certificatie, dus dat het gratis is gaat niet op.

Datzelfde is weer van toepassing op SAM. SAM is resizable BAR met een AMD sticker erop. Het is geen AMD sausje, het is geen AMD variant, het is gewoon een AMD sticker, meer niet.

nVidia kan even goed er een andere sticker op plakken, sterker nog nVidia ondersteunt al jaar en dag resizable BAR.

Een peformance boost halen uit resizable BAR is niet recht toe recht aan. Het heeft vooral ook te maken met de manier waarop game engines data laden en hoe ze omgaan met die data. Dat zie je ook in de data die beschikbaar is, ene game heeft significante winsten terwijl de andere helemaal niks doet. Dus buiten dat je hardware fabrikanten erbij betrekt moet je ook engine bouwers en game ontwikkelaars erbij betrekken.

Dat AMD heeft ontdekt dat er een significante performance boost te behalen is en dat onder de aandacht wil brengen is natuurlijk een goede zaak (zoals ook in het artikel staat vaak staat het op BIOS niveau uit en is het niet duidelijk vernoemd), maar laten we nou aub niet gaan doen alsof ze de liefdadigheid zelf zijn.

[Reactie gewijzigd door TechSupreme op 21 november 2020 21:28]

Ik vind het ook sympathiek en stukken beter dan een strategie zoals we bij nividia gezien hebben met g-sync.

Let op, het blijft een strategie met belangrijk marketing aspect. Niet blind worden ;)

Nog altijd ben im benieuwd naar het verschil met de 'pcie standaard' die hetzelfde moet bieden.
Ik krijg hier een flashback naar de gsync vs freesync periode.

[Reactie gewijzigd door Thijs_ehv op 21 november 2020 22:22]

Bij sommige games en soms word ook een verslechtering te zien. Dus voorlopig nog geen meerwaarde wat mij betreft.
Bij games waar het slechter presteert kun je natuurlijk ook gewoon het vinkje uit laten?
true; waar ik vooral op probeerde te doelen is dat het gemiddeld genomen (over de gemiddelde game heen) de winst beperkt lijkt. Het gaat mij niet om 1 a 2 games die beter draaien; ik kijk naar m'n hele game library.

En begrijp me niet verkeerd; wellicht is dit net als multi-core ondersteuning gewoon iets waar ontwikkelaars aan moeten wennen en zien we over een jaar games verschijnen die hier serieus gebruik van maken.
NVidia gaat adv hun drivers dit ook toelaten. Dankzij AMD worden de oude knarren wakker en moeten ze volgen...
Nvidia is hier zelf al mee bezig om dit te activeren.
Dat is voor mij één van de redenen geweest om niet te wachten op de 6000 reeks van AMD. Het lijkt me nu meer plausibel dat ik nog verbetering ga krijgen met m'n Zen 2 en Ampere-GPU.
Dat je 4770k zo lang mee ging kwam ook door het feit dat er de 3 jaarna de launch daarvan niet zoveel gebeurde in cpu land, dat is nu wel anders nu AMD op toeren is.
Oh zeker, en dat geldt ook voor de i7 920 die ik ervoor had. Die is ongeveer even lang in bedrijf geweest. Maar zeker in bijvoorbeeld Meshroom(photogrammetry) maakt die drie keer zo hoge core count echt wel een verschil.
Net als de 2600k, pas 6 jaar later een waardige opvolger.
Als je dan nu ziet wat voor performance verschil er is tussen een ryzen 5 1600 en een ryzen 5 5600x in 4 jaar, allemachtig, bijna een verdubbeling van performance, en dat op hetzelfde socket, ben benieuwd wat komende jaren gaat brengen.
de overkant een stuk groener. Eerst nog maar eens zien op welke ampere en mobo de BAR support gaat komen....Het is altijd wel iets zogezegd met AMD GPU. drivers - power en nu is het weer de mythische raytracing....De groene is zogezegd weer beter maar kost vlotjes 100eur meer en verbruikt 10% meer... en ja op 4K ultra komt de 3080 in de buurt van de 6800, anders is hij vlotjes 5-10% trager maar het is raytracing :O :z

nvidia is een bastion van closed licensing, voorkeurs behandelingen etc..het is dankzij AMD dat er heel wat open standaarden zijn... maar de consument wil graag de dupe blijven.
Als ik het goed begrijp is het standaard mogelijk om op deze manier 512MB videogeheugen te adresseren. Met "Above 4G memory" kan dit groter worden omdat er dan geen 32-bit maar 64-bit pointers gebruikt worden. Dit vereist een 64-bit operating system en 64-bit PCI-toegang. De 512MB wordt gewoonlijk ook gedeeld door alle PCI-kaarten. Met Resizable BAR kan dit bovendien in blokgroottes anders dan 256MB worden aangesproken.

Beide opties aanzetten heeft dus zin, los van elkaar zal er waarschijnlijk lang niet zoveel snelheidswinst te halen vallen.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Black Friday 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True