Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Printplaat van AMD toont wellicht Navi-videokaart met gddr6

Er zijn afbeeldingen online verschenen van een printplaat van AMD die plaats biedt aan een gpu en aan gddr6-geheugen. Misschien gaat het om een printplaat voor AMD's komende videokaart op basis van de Navi-gpu.

De foto's zijn op Twitter geplaatst en afkomstig van een Chinees forum. Het gaat om een lege printplaat, waarop geen chips zitten. Uit de lay-out en aanwezige pinnen zijn echter verschillende details op te maken. Het YouTube-kanaal Actually Hardcore Overclocking heeft een uitgebreide analyse gemaakt.

De overklokker laat zien dat uit het aantal pinnetjes van de geheugenchips blijkt dat het om gddr6-geheugen gaat. Er is ruimte voor acht chips, dus de kaart heeft een geheugenbus van 256bit, net als de GeForce RTX 2070 en 2080. Dat kan erop duiden dat het gaat om een videokaart die met die kaarten concurreert, al moet opgemerkt worden dat AMD-videokaarten over het algemeen een bredere geheugenbus hebben dan Nvidia-varianten.

Ook is te zien dat de videokaart een achtfasige vrm heeft en dat er plek is om twee achtpinsvoedingsstekkers te monteren. Daarmee zou de kaart een tdp van 250 tot 300 watt kunnen krijgen. In theorie is ook een hogere tdp mogelijk, maar het lijkt onwaarschijnlijk dat AMD een videokaart met een tdp hoger dan 300W uitbrengt. Volgens de videoanalyse toont de pcb ook aansluitingen voor een blower-ventilator. AMD gebruikt dergelijke koelers vaak op zijn referentieontwerpen.

Het is de verwachting dat AMD de Navi-gpu inzet op videokaarten voor het mainstreamsegment. Het zou gaan om opvolgers van de videokaarten met een Polaris-gpu, zoals de RX 580 en verwanten. Eind mei geeft AMD waarschijnlijk details over de Navi-gpu's, in een keynote op de Computex-beurs.

Door Julian Huijbregts

Nieuwsredacteur

29-04-2019 • 12:59

83 Linkedin Google+

Reacties (83)

Wijzig sortering
Hoop dat ze ook gaan concurreren op hardware ray-tracing.
Lijkt mij van wel. Zeker gezien Sony beweert dat de PS5 raytracing krijgt, en dat wordt zeer waarschijnlijk AMD hardware.
Jup, gebaseerd op Navi en Zen 2.
PlayStation’s next-generation console ticks all those boxes, starting with an AMD chip at the heart of the device. (Warning: some alphabet soup follows.) The CPU is based on the third generation of AMD’s Ryzen line and contains eight cores of the company’s new 7nm Zen 2 microarchitecture. The GPU, a custom variant of Radeon’s Navi family, will support ray tracing, a technique that models the travel of light to simulate complex interactions in 3D environments. While ray tracing is a staple of Hollywood visual effects and is beginning to worm its way into high-end processors and Nvidia's recently announced RTX line, no game console has been able to manage it. Yet.
https://www.wired.com/story/exclusive-sony-next-gen-console/
“Support raytracing” softwarematig of hardwarematig? Want de huidige kaarten ondersteunen ook raytracing. (Softwarematig)
Het is natuurlijk allemaal hardwarematig. De RTX serie heeft inderdaad een dedicated stuk in de core om dit veel efficiënter te doen dan de compute units in de Pascal serie dit kunnen doen.

Ik ben hierdoor nog erg benieuwd hoe de top tier AMD kaarten raytracing kunnen doen aangezien dit compute beesten zijn (ze zijn niet voor niets populair in de cryptomining scene).

Gevoelsmatig vind ik dat je pas van software raytracing kan spreken als de CPU deze taak op zich neemt.
AMD heeft op papier al jaren betere specs dan Nvidia, toch lukt het ze niet om daar voordeel uit te halen. De drivers beperken bij AMD vaak de hardware, met dit soort projecten zit AMD weer in 'the loop' en kunnen ze hopelijk weer een inhaalslag maken.
Definieer specs. Minder of in sommige zeldzame gevallen dezelfde performance maar 2x het stroomverbruik zijn niet echt betere specs.

Laten we hopen dat Navi op 7 NM AMD weer betere performance per watt gaat geven. Ondanks dat ik het gevoel heb dat architecturale verbeteringen bij AMD nog even op zich zullen laten wachten.

Performance per watt is misschien belangrijkste graadmeter om te zien of je ontwerp goed is. Ben al lang niet meer naar AMD gegaan om die reden. Maar ik kijk met weemoed terug naar de tijden van de 6000 serie van AMD, o.a. 6950 in crossfire was een fantastische oplossing omdat performance per watt op dat moment flink beter was per kaart dan bij Nvidia.

[Reactie gewijzigd door OriginalFlyingdutchman op 29 april 2019 15:19]

Definieer specs. Minder of in sommige zeldzame gevallen dezelfde performance maar 2x het stroomverbruik zijn niet echt betere specs.
Eens, maar dit is niet altijd het geval.
Vergelijk de Radeon 7 bijvoorbeeld met de RTX 2080 dan zie je dat het stuivertje wisselen is qua performance en het verbruik ook vrijwel gelijk is. (ik heb het nu over gamen, bij mining maakt die Radeon 7 gehakt van GTX 2080 TI's die 2 keer zoveel kosten.)

Verbruik : https://www.youtube.com/watch?v=5eMl4j_lkTg&t=323s
mining hashrates : https://www.youtube.com/watch?v=vtgs2y3_aX0

[Reactie gewijzigd door procyon op 29 april 2019 16:13]

Daar moeten we voorzichtig mee zijn, ik heb de video even bekeken en er blijkt voor 250-300 watt aan VRM's op te zitten, het is ook een vrij forse kaart met ruimte voor een blower style fan dus het zou ook nog eens een serverkaart kunnen zijn. Ook 256 bit memory bandwidth is minder dan de reguliere kaarten dus op die manier kan het ook nog eens een mid-end kunnen zijn.

Kortom: we weten op basis van het PCB niet heel veel van de line-up tot we alle PCB's hebben gehad en daaruit voorzichtig conclusies kunnen trekken. Ik weet wel dat je met 250W+ TDP niet echt heel veel fans gaat maken.
Voor een brute force antwoord op de GTX 2080 zou het daarentegen een logisch gevolg zijn dat er 250W+ nodig is.
AMD gebruikt in referentie ontwerpen bijna altijd een radiaal fan, in de high end server ontwerpen zit helemaal geen fan. Persoonlijk hoor ik niet veel gamers klagen over stroomverbruik zolang het lawaai maar redelijk is. Goede 700W voedingen kosten heden ook niet bepaald veel meer.

En in de video kun je duidelijk de monitor aansluitingen op de print zien.
Wellicht is dat omdat er alleen onderaan de streep (eindafrekening van de energiemaatschappij) pas last ondervonden wordt wanneer het bedrag hoger uitvalt dan verwacht, nietwaar?

Ik denk overigens dat het afvoeren van de hitte nog wel een probleempje kan worden bij een dergelijk stroomverbruik. Natuurlijk zal er puur op piekmomenten de 300W behaald worden. Echter zal ook die 300W per kaart gewoon afgevoerd moeten kunnen worden (of als alternatief thermal throttling). Ook tijdens de warme zomermaanden, waarbij de omgevingstemperatuur aanzienlijk hoger kan zijn. Dat gaat tot nu toe nog vaak gepaard met een hogere geluidsproductie of prestatieverlies wegens thermal throttling (wat overigens een goed alternatief is om je kaart niet te slopen).

Met een beetje CPU en Crossfire (met 2 kaarten) kom je al snel uit op een +1000W PSU met een mooi 80% efficiëntie-embleem om de boel tijdens piekmomenten stabiel draaiende te houden. Dat is net zoveel als de gemiddelde hedendaagse vaatwasser, droger of wasmachine. En dat zijn grootverbruikers. Om nog niet te spreken over een configuratie met 4 GPU's!

Al met al, een bruut vermogen dat nodig is voor een beetje grafisch geweld.
Gamers die bij pappa en mamma wonen zien verbruik alleen als iets wat de voeding moet kunnen leveren. Als student zijnde zit stroom vaak inbegrepen bij je huur, dus pas als je je eigen huis en tuin hebt begint verbruik een ding te worden. Tegen die tijd heb je waarschijnlijk niet meer genoeg tijd over om nog echt een deuk te slaan in je maandelijkse inkomsten.

Het scenario waarin iemand meerdere videokaarten aan elkaar knupt zie ik als uitzondering, als scholier of student is dat soort budget vaak niet beschikbaar. Ik vind John Carmack's idee over meerdere GPU's wel correct:
"But to be able to have this ability to just pay more money and get more performance out of a current generation is really useful thing to have. Whether it makes sense for gaming to have these thousand dollar graphics cards is quite debatable but it's really good for developers; to be able to target something high end that's going to come out three years from now by being able to pay more money today for 2x more power."
Bron: https://www.pcper.com/reviews/Graphics-Cards/John-Carmack-id-Tech-6-Ray-Tracing-Consoles-Physics-and-more/Multi-GPU-graphi
Navi is toch niet AMD's antwoord op nVidia's high-end lijn? (als we adoredTV mogen geloven iig)
Navi is toch niet AMD's antwoord op nVidia's high-end lijn? (als we adoredTV mogen geloven iig)
Volgens Tom's Hardware: "Radeon RX 3080 is said to be the rival to the existing GeForce RTX 2070"
Volgens Notebookcheck zou de Navi 20 in ieder geval prestaties moeten hebben die de RTX 20 serie moeten overtreffen.

Lijkt mij dat Nvidia ook niet stil zit, dus in hoeverre dat dan allemaal nog relevant is. In ieder geval is het wel de intentie van AMD (wat ik zo lees) om een high end kaart te leveren.
Dat driver verhaal is inmiddels écht passé:" To give credit where credit is due, the Radeon R9 290 is also extremely impressive in 2019.
We’re completely attributing the R9 290’s comeback to AMD’s driver development and not anything to do with the partitioned VRAM buffer or Nvidia neglecting driver support. The 'fine wine' here is all about AMD getting on top of driver optimization over the past few years. zie techspot - https://www.techspot.com/...gtx-970-vs-radeon-r9-290/
Het heeft meer met optimalisaties te maken die developers doen voor Nvidia kaarten.
Nvidia schijnt zelf veel aan optimalisaties te doen. Een stagiair is ooit uit de school geklapt en vertelde dat ze daar letterlijk fouten van devs vanuit de driver opvangen en oplossen.

Verder heeft AMD tot de dag van vandaag een flinke achterstand op DX11 omdat de boel daar op 1 core draait.
In het artikel van techspot staat:"It was mostly the older titles, or Nvidia sponsored games where the green team did well, games such as World of Tanks, Warhammer II, Metro Exodus, Project Cars 2, and Fortnite, for example".
DX11 is verleden tijd, nieuwe games draaien op DX12. Dus Nvidia gesponsorde DX12 games presenteren beter op Nvidia kaarten, en zijn ze niet gesponsord zoals bijv. Wolfenstein II, dan draait het veel beter op AMD kaarten
In het artikel van techspot staat:"It was mostly the older titles, or Nvidia sponsored games where the green team did well, games such as World of Tanks, Warhammer II, Metro Exodus, Project Cars 2, and Fortnite, for example".
DX11 is verleden tijd, nieuwe games draaien op DX12. Dus Nvidia gesponsorde DX12 games presenteren beter op Nvidia kaarten, en zijn ze niet gesponsord zoals bijv. Wolfenstein II, dan draait het veel beter op AMD kaarten
Tempo van DX12 is nog altijd laag. Bij videokaarten op de toekomst gokken werkt niet omdat dit nu net de hardware groep is waarbij de ontwikkelingen het snelste gaan. Dus tegen de tijd dat het gros wel DX12 is zitten we weer in andere hardware generaties en voldoet de midrange kaart die je nu zou kopen waarschijnlijk niet meer. Bij een videokaart kun je altijd beter kijken naar wat je nu speelt. Alleen bij aanschaf van dure kaarten als de Radeon VII is een toekomst perspectief nog enigszins nuttig, daarmee zou je mogelijk een generatie kunnen overslaan. Maar ook dan lever je die generatie wel in op beeldkwaliteit ten opzichtte van de nieuwste modellen. Vaak had je dan net zo goed twee keer het goedkopere model kunnen aanschaffen.

Overigens is het hele fine-wine gebeuren helemaal geen positief argument. Immers moment dat de voordelen van 'fine-wine' voor de koper nut gaan hebben zijn die kaarten al niet meer relvant. Zie ook de test die jij aanhaalt waarbij zowel de 970 als de r9 290 onder een RTX 570 bungelen. Waarom zou je in 2014 voor 300 euro een kaart kopen om die vijf jaar lang te houden tot het punt dat een kaart van 130 euro sneller is? Dat is niet rationeel.

[Reactie gewijzigd door sdk1985 op 30 april 2019 15:15]

Overigens is het hele fine-wine gebeuren helemaal geen positief argument. Immers moment dat de voordelen van 'fine-wine' voor de koper nut gaan hebben zijn die kaarten al niet meer relvant
Ik heb erg lang een R9 290 en het was in het begin een snelle prima kaart, en nu nog steeds en heeft ie het veel beter overleeft dan ze concurrentie... Hoe is dat niet positief voor mij als gebruiker?
Stukje waar wij het blijkbaar niet over eens zijn, wat je weglaat uit de quote, is dat die kaart anno 2019 wat mij betreft niet meer kan meekomen. De genoemde RX 570 is al veel sneller en die valt tegenwoordig buiten mid-range. In games als Ghost recon wildlands, ondertussen 2 jaar oud, zul je zelfs op very high vermoedelijk nog dik onder de 40 fps uitkomen op 1920x1080.

Dus ik zie het nut niet om 5 jaar na dato jezelf op de borst te kloppen dat je kaart het relatief beter is gaan doen dan een andere kaart van 4/5 jaar geleden. In beide gevallen zijn de nieuwe topkaarten 300% sneller. Of je kaart dan 25 of 29 fps haalt wordt allemaal erg triviaal. Het is gewoon behelpen.

Mijns inziens had je beter de R9 290 op V&A gezet en vervangen voor een sneller modernere variant. Je kaart was bij aanschaf 400 a 500 euro, dus daar had je op een eerder moment echt nog wel wat voor terug gezien. Zelfs nu kun je hem wel kwijt voor 75 a 100 euro en dan heb je voor 60 euro extra een RX 580 te pakken. Dus nee ik zou echt niet weten waarom iemand zo'n dure kaart koopt om dan daarna 5 jaar lang zijn hand op de knip te houden. Ook al zet je niet graag spullen op V&A, dan had je alsnog in die tijd voor hetzelfde geld twee keer een mid-range kaart kunnen aanschaffen. Dan had je destijds een klein beetje minder performance gehad en in de periode erna significant meer.

Videokaarten zijn gewoon geen dingen waar je meer geld aan uit kunt geven om er zo langer mee te doen. Ja feitelijk kan het wel, maar dan schiet je jezelf altijd in de voet.

[Reactie gewijzigd door sdk1985 op 30 april 2019 20:22]

ik snap jouw verhaal echt niet, ik heb nu een kaart die nu het nog steeds goed doet, waarom zou ik hem dan in vervangen voor een kaart die maar minimaal sneller is

Ik snap ook wel dat moderne kaarten nu beter zijn, maar die kaart heb ik niet ik heb een 290 die nu nog steeds in vele spellen 60fps haalt

Punt is dus dat ik een kaart gekocht heb die prima presteert, en jaren later dat nog steeds doet... een heel simpel win win verhaal.

En ja ik heb naar de 480 en 580 gekeken, maar wat mij betreft echt niet waard om daar geld aan te besteden voor de minimale winst die ik daar uit ga halen
Videokaarten zijn gewoon geen dingen waar je meer geld aan uit kunt geven om er zo langer mee te doen. Ja feitelijk kan het wel, maar dan schiet je jezelf altijd in de voet.
Hoe schiet ik me zelf daar mee in de voet? wat voor nadeel heb ik dat ik nog game op een 290?
ik snap jouw verhaal echt niet, ik heb nu een kaart die nu het nog steeds goed doet, waarom zou ik hem dan in vervangen voor een kaart die maar minimaal sneller is
Dat is niet erg, ik denk dat we elkaar niet snappen.

Uit de bovenstaande link volgt dat een RX 580 77 FPS haalt waar een R9 290 54 FPS haalt (1%). Dus dat scheelt 29%. Daar betaal je nu 160 euro (RX 580) minus 100 euro (V&A R9 290) = 60 euro voor. Dat vind jij een te kleine upgrade. Persoonlijk zou ik dat er wel voor over hebben, maar ieder zijn mening.

Echter, vijf jaar geleden heb je 500 euro neergelegd voor een R9 290 welke opdat moment vergelijkbaar veel sneller was dan bijvoorbeeld een MSI 660 Ti PE. Daar betaalde je op dat moment vermoedelijk 150 a 200 euro extra voor.

Dus dan snap ik niet waarom 5 jaar geleden die 30% extra prestatie 150 a 200 euro waard was, en anno 2019 diezelfde prestatie boost nog geen 60 euro mag kosten.
Hoe schiet ik me zelf daar mee in de voet? wat voor nadeel heb ik dat ik nog game op een 290?
Omdat je met dezelfde hoeveelheid euro's over de periode van 5 jaar meer prestaties krijgt wanneer je in plaats van één keer een groot bedrag, twee keer een kleiner bedrag uit geeft. Des te meer wanneer je de eerste kaart na 2 a 3 jaar verkoopt en die inleg mee neemt in de aanschaf van de vervanging. In de regel krijg je hoe duurder de videokaart des te minder prestaties per euro. Koop jij elke 3 jaar een kaart van 500 euro, dan dikke prima. Maar een duurdere kaart kopen om 5 a 6 jaar mee te doen is een suboptimale beslissing als je kijkt naar prestatie per euro in je laatste 3 jaar.

[Reactie gewijzigd door sdk1985 op 1 mei 2019 14:15]

Het is inderdaad net zoals je zegt amd komt altijd iets te kort in het hogere segment misschien dat deze nieuwere techniek zorgt dat zij eens het voortouw gaat nemen op de hardware markt.
Ze kunnen het dat weet ik zeker maar Nvidia is ze steeds een stapje voor, en dat vind ik best jammer.
Misschien met nieuwe gpu en het snellere ddr6 geheugen dat het wel gaat lukken.
Of althans dichter bij de concurrentie komen in het hogere segment voor videokaarten.

[Reactie gewijzigd door rjmno1 op 30 april 2019 19:16]

Gevoelsmatig vind ik dat je pas van software raytracing kan spreken als de CPU deze taak op zich neemt.
Aan de andere kant vind ik gevoelsmatig de huidige GPU's heel veel weg hebben van een CPU, tenslotte kun je GPU's tegenwoordig programmeren, en draait er dus feitelijk software op.
Met de nadrukkelijke verwijzing naar een gpu met ray tracing-ondersteuning zou je denken aan hardwarematig, maar we weten allemaal hoe mooi de verhalen in aanloop van een release kunnen zijn.
Met Nvidia kan je ook hardwarematig raytracen via CUDA, alleen is dat lang niet zo snel. Lijkt me dus dat het ook met de AMD Stream Processors kan.
GTX ondersteunt tegenwoordig ook raytracing (met een hit op performance en features) , dus "will support ray tracing" wil niet zeggen dat de GPU specifieke raytracing hardware aan boord heeft.
Gaat aandelen AMD kopen! 8-)
De PS5 krijgt inderdaad raytracing en een Navi-gpu, dat is al bevestigd: nieuws: Sony PlayStation 5 krijgt derde generatie Ryzen-cpu, Navi-gpu en rayt...

Het is echter niet bekend of het om hardwarematige raytracing gaat. Het kan ook softwarematig.
Is softwarematige raytracing niet juist enorm inefficient? Als de implementatie hiervan bij Nvidia's Pascal generatie enige indicatie is dan gaat het geen wonderen voor de performance doen als de architectuur niet voor raytracing is ontworpen...
Ik weet niet wat exact software is. AMD is altijd heel goed geweest in pathtracing (raytracing). Het is alleen dat NVidia nu doet alsof ze iets nieuws en innoverends gedaan terwijl pathtracing voornamelijk op AMD kaarten werden gedaan omdat die er geschikt voor zijn.
Wat hoogst waarschijnlijk is gebeurd is dat NVidia een stel developers een zak geld heeft gegeven om een NVidia only API te promoten, wat eigenlijk veel meer geld in het laatje brengt dan echt met iets nieuws te komen (omdat je een NVidia kaart moet kopen, net als de PhysX farce).
Let wel, NVidia kan best hardware maken, maar ze moeten het voornamelijk hebben van vendor lock-in en marketing.
Lijkt me onwaarschijnlijk dat AMD de afgelopen jaren evenveel tijd en geld heeft geïnvesteerd in de ontwikkeling van hardware raytracing als Nvidia heeft gedaan - al is het maar omdat AMD nu eenmaal een veel minder geld heeft dan Nvidia. Het is ook onwaarschijnlijk dat AMD er op heeft ingezet ná de introductie van RTX want dat laat onvoldoende tijd voor ontwikkeling (en nog steeds onvoldoende geld).

Als AMD raytracing ondersteunt dan zal het wel softwarematig zijn, net zoals Nvidia sinds kort doet met GTX kaarten. Dat betekent dat het minder performance en minder features zal hebben dan hardware raytracing (bvb niet gelijktijdig raytraced schaduwen, raytraced reflecties én raytraced ambient lighting).
Dat zou voldoende kunnen zijn om de PS5 interessant te maken maar niet voldoende om werkelijk te concurreren met Nvidia.

Maar de markt voor realtime raytracing is met name vanwege de hoge kosten voorlopig nog klein, dus als AMD in het middensegment vlotte hardware voor een aantrekkelijke prijs neer kan zetten dan kunnen ze daar alsnog goed concurreren.
GPU's kan je voor een best aantal taken inzetten. Bij de GCN kan dat ook gewoon. Een deel van de SIMD's gewoon inzetten voor hardwarematige raytracing.
Een deel van de SIMD's gewoon inzetten voor hardwarematige raytracing.
Wanneer noem je dan iets hardware, en wanneer software? Want die compute units runnen gewoon software.

Mijns inziens is het pas "hardwarematig" als er dedicated transistors aanwezig zijn puur voor die taak.

[Reactie gewijzigd door .oisyn op 29 april 2019 14:14]

Hebben we het net daarom niet meestal over "hardware accelerated"?

Je zou kunnen zeggen dat in een hedendaagse pc er maar weinig functionaliteit echt helemaal in hardware verwezenlijkt wordt. Zelfs de meest rudimentaire uitbreiding heeft z'n eigen firmware aan boord en elk stukje hardware heeft z'n driver nodig.
Volgens mij softwarematig is wanneer je CPU inzet voor een stuk code die niet door de GPU kan worden berekend.
Nee, softwarematig betekent door middel van software. Hardware bestaat uit de transistors die de instructies interpreteren en uitvoeren.

Om een wat low-level voorbeeld te geven, oude of simpele embedded CPU's hebben bijvoorbeeld geen instructie om een deling te doen. Als je dan toch twee getallen wilt delen zul je dat "in software" moeten doen met behulp van een algoritme dat gebruik maakt van primitievere operaties zoals optellen en shiften om tot het gewenste resultaat te komen. De uiteindelijke software bestaat dus uit een reeks instructies die de deling doet, zonder dat de CPU in kwestie specifiek ontworpen is om dat te doen. Een moderne desktop-CPU heeft daarentegen gewoon een specifieke instructie voor delingen, en de transistors om die deling in hardware uit te voeren. Dat is dus "hardwarematig".

Een hedendaagse GPU lijkt in de basis best wel veel op een CPU - de shaders zijn gewoon kleine programmaatjes, software dus, die geïnterpreteerd worden door de compute units, met het verschil dat die enorm brede SIMD registers gebruiken en heel veel threads tegelijk kunnen verwerken. Maar een GPU doet veel meer dan dat, hij heeft bijvoorbeeld dedicated hardware om driehoeken te rasterizen, allerlei variabelen te interpoleren tijdens dat rasterizen, en bijvoorbeeld texels te fetchen met anisotropic filtering uit een compressed texture. Dat zijn hardwarematige operaties, die als je die in software op zou lossen enorm veel trager zouden zijn (ook in compute units).

De RTX heeft dedicated hardware om raytracing te kunnen doen. Het kán ook in compute op oudere architecturen, maar dat is een stuk langzamer dan als je gewoon een schakeling van transistors hebt die specifiek ontworpen is om het betreffende werk voor je op te lossen. Ergo, iets doen in compute is mijns inziens niet "in hardware". Het is pas hardwarematig als er transistorschakelingen voor bestaan met als doel om die ene taak uit te voeren.

En, toegegeven, dan is er ook nog zoiets als microcode, wat je feitelijk ook als software zou kunnen zien

[Reactie gewijzigd door .oisyn op 29 april 2019 15:17]

Softwarematig wordt over het algemeen gezien als je hardware er niet specifiek voor ontworpen is, maar zo aangesproken kan worden dat het via een omweg (software) alsnog kan uitvoeren. Over het algemeen is dat dan wel een stuk trager en resource intensief.

[Reactie gewijzigd door OriginalFlyingdutchman op 29 april 2019 15:26]

Een deel van de SIMD's gewoon inzetten voor hardwarematige raytracing.
Zoals nu ook mogelijk is met GTX kaarten, en omdat het niet specifiek raytracing hardware is lever je performance en features in.
De "nieuwe" directX features zijn door bedrijven als nVidia en AMD al héél lang gekend. Daar hoort raytracing bij. Mocht AMD (net als nVidia) geoordeeld hebben dat ze hiervoor hardware acceleratie kunnen inzetten, is het helemaal niet onlogisch dat we dat in de eerstvolgende hardwaregeneratie te zien gaan krijgen.
Wat betreft de afweging die je maakt ivm de budgetten: R&D moet toch gedaan worden: er moet een nieuwe chip komen. Hardwareacceleratie van directX features is dan net iets waar ze volgens mij wél mee aan de slag gaan moeten.
Wat betreft de afweging die je maakt ivm de budgetten: R&D moet toch gedaan worden: er moet een nieuwe chip komen.
Een nieuwe chip die alleen sneller is, is minder kostbaar om te ontwikkelen dan een chip die én sneller is, én fancy nieuwe features heeft.
Het kan zijn dat Navi wel iets van raytracing hardware heeft, maar het zou me verbazen als het net zo uitgebreid is als RTX en DLSS. Ik zou het ook jammer vinden want dat zou AMD minder ruimte geven om in het middensegment op prijs te concurreren.
"Alleen maar sneller" betekent ook een redesign. Simpel shrinken is er al even niet mee bij ;)
Het accelereren van een gekende workload behoeft niet persé "fancy" technologie. Ik heb me niet verdiept in de technische details, maar raytracing gaat toch helemaal om specifieke vector berekeningen?
Anderzijds betekent hardware acceleratie niet dat àlles op de GPU zelf moet uitgevoerd worden. De driver kan hierin arbitreren. Een mogelijkheid is bijvoorbeeld dat zo (deels) geoptimaliseerde GPGPU bewerkingen gebruikt worden.
Ik kan me eigenlijk niet voorstellen dat AMD dat zou skippen omdat het te moeilijk of duur is. Er schuilt een risico in als komende tijd meer en meer games raytracing zouden gaan gebruiken...
"Alleen maar sneller" betekent ook een redesign.
Wat heb ik gezegd waardoor je denkt dat ik denk dat voor een snellere chip geen redesing nodig is?
Het accelereren van een gekende workload behoeft niet persé "fancy" technologie.
Dan nog is dat meer dan alleen ontwikkelen/designen tbv meer snelheid, en kost dus meer tijd en meer geld.

Dat R&D "toch gedaan moet worden" betekent toch niet dat alle R&D even veel kost?
Heel positief. Wordt mijn volgende desktop misschien toch een Amd cpu/gpu combo .
Softwarematig of hardware? De hele annoucement zegt helemaal niets nieuws.
Het is geen noodzaak dat AMD daar specifieke raytracing hardware voor gaat gebruiken. RX VEGA 56 doet ook raytracing in Crytech demo.

Het is belangrijk in je achterhoofd te houden dat de nextgen consoles een APU hebben. Deze chip moet goedkoop te produceren zijn (klein oppervlakte). En in dit kleine oppervlakte moeten 8 CPU cores komen, IO-chip en de normale GPU cores. Dan blijft er geen ruimte over voor hardwarematige raytracing coes.

Kijk alleen al even hoeveel transistors NVIDIA kwijt is aan tensor en AI cores dan is dat een groot percentage. Sony zal met de PS5 puur software matige oplossing gebruiken.
waar haal jij vandaan welke chip er in de PS5 komt? daar is toch nog niets over gezegd.
Ik beweer niets, vandaar dat ik zeg waarschijnlijk maar dit artikel van tweakers heeft het over Ryzen en Navi: nieuws: Sony PlayStation 5 krijgt derde generatie Ryzen-cpu, Navi-gpu en rayt...
Als of dat nu ineens de killer feature is die iedere kaart zou moeten ondersteunen? Er zijn nog niet eens titels voor, en dan nog is het praktisch nut van die feature bijna 0.
Ach, wat een vooruitstrevende denkwijze. Op de manier waarop jij redeneert hoef je nooit iets nieuws te ontwikkelen, want het is er nog niet. Dit soort grote veranderingen hebben nou eenmaal tijd nodig.

[Reactie gewijzigd door NotSoSteady op 29 april 2019 13:39]

Ik zeg niet dat het geen ding zou moeten worden, maar wel dat het op dit moment een beetje zinloos is om het als USP van de nieuwe generatie GPU's te presenteren. Als je GTX renamed naar RTX speciaal voor ray-tracing, dan voegt het blijkbaar gigantisch veel toe, en dat is op dit moment zeker niet het geval.
.

[Reactie gewijzigd door OriginalFlyingdutchman op 29 april 2019 15:29]

Ik vind dat ze eerst eens moesten gezorgd hebben om kaart uit te brengen die 4k en toekomst 8k makelijk aankan.2080ti krijgt het amper boven de 60 fps.
Denk dat de toepassingen wel breder worden dan games alleen. Ben benieuwd wat het bijvoorbeeld met foto/video editing gaat doen, etc...
Ik weet niet of het wat gaat toevoegen aan 2d materiaal. De kracht van raytracing is het simuleren van lichtstralen in een 3d omgeving. Als je je materiaal als 3d mesh aanbied kan je met raytracing het materiaal wel goed opleuken. Wellicht dat er wat plugins met behulp van beeldherkenning een 3d model van je materiaal kunnen maken.
Doe zelf aan 3D foto/video bewerking. Kan me wel wat leuke filters/effecten voorstellen die speciaal dan van pas gaan komen.
Dan kun je nu al aan de slag met de bestaande raytracing. De techniek is al zo oud als de weg naar rome (in computertermen dan). Ik speelde in de vorige eeuw al met PovRay en ik zie dat die nog steeds bestaat. Het belangrijkste verschil zou de snelheid moeten zijn (povray op een 68000 machine is langzaam..)
:) wil juist een nieuwe desktop daarvoor samenstellen. Alles zo snel mogelijk svp. en hw-versnelling gaat daar zeker bij helpen.
ach de goede oude tijd van irtc. de "rusty" filmpjes waren meestal wel geniaal :)
Daar moest ik ook aan denken , op m'n oude PowerMac.
3 voorwerpen (ball or square) , skin er op en een lamp. Kon je rustig gaan slapen om 's ochtends resultaat te bekijken
PowerMac? Man, dat is racemonster vergeleken met mijn Amiga 2000 met een plain-old 68000 CPU op 7.14Mhz :+
Tja, zo kun je stellen dat het praktische nut van een hoop technieken die aan de GPU zijn toegevoegd nutteloos zijn, wat is het nut van antialiasing? bijna 0... Dat jij VINDT dat het geen nut heeft is een ander verhaal, maar als ik de verschillen zie tussen raytracing on en off, vind IK die verschillen toch best aanzienlijk.
Ik zeg niet dat het geen nut heeft. Ik zeg dat ik het raar vind dat we het presenteren alsof we het wiel hebben uitgevonden, tot op het punt waar de GTX lijn gerenamed word naar RTX, en AMD wel moet volgen. AA is/was zeker belangrijk, maar we hadden destijds ook geen GeForce AATX lijn. Point being; het word opgeblazen en neergezet als ultieme killer feature, en dat is het voorlopig niet, zeker niet zonder titels.
Het verschil tussen de GTX en de RTX lijn is dus vanwege de extra nieuwe hardwarematige toevoeging, zodat je ook duidelijk nu weet dat de GTX lijn niet die RT cores heeft. Als ze nu alleen kaarten uit zouden brengen waar die RT cores op zitten was het een ander verhaal, maar nvidia heeft nu een lijn zonder rt-cores GTX 16xx en de lijn met rt-cores RTX 20xx, het zou juist waziger zijn geweest als ze de GTX prefix zouden hebben aangehouden voor de 20xx lijn.
En er zijn wel degelijk al titels die er gebruik van maken, en het verschil met en zonder de RT cores is ook aanzienlijk.
Juist op consoles zijn zulke features heel goed in te zetten.
Dat valt vies tegen. Ja het aantal games dat er is met RT is nog niet zo heel groot, maar aangezien Unreal en Unity er support voor gaan inbouwen zal het denk ik snel hoger worden. Zeker gezien de mogelijkheden.

Daarnaast is het ook voor andere doeleinden dan gaming een heel interessante toevoeging. Kijk hier ook bijvoorbeeld naar Unity die ook heel erg proberen in te zetten op gewoon visualisatie. het word nu goedkoper om raytracing toe te passen. De RTX kaarten zijn misschien duur voor gaming, maar voor rendering is dit een vrij goedkope manier om hardware raytracing te kunnen doen.

Ik denk dat het ook voor wat minder hectische games een heel mooie toevoeging kan zijn die atmosferisch gewoon heel goed zijn.

Op Digital Foundry stond nu een leuke video van raytracing in minecraft en daar dan een showcase mee gemaakt. Hier zie je dus wat je met gewoon licht voor een effecten kunt krijgen. Hier zie ik best wel wat games gebruik van maken.

En je kunt van iedere graphische feature zeggen dat het nut 0 is, maar als je realistischere graphics wilt is dit de enige weg. Je kunt alle andere dingen blijven verbeteren, maar belichting is toch de meest belangrijke en iets wat gevoelsmatig al heel snel op valt als het niet klopt.
Ik denk wat veel gamers ook onderschatten is het aantal werk dat verlicht kan worden voor ontwikkelaars.
Indien een hele game voorzien kan worden van raytracing, hoeven de ontwikkelaars niet vele lichtpunten in te bakken in de game. Bespaart dus tijd en geld voor hen. Kan de industrie toch alleen maar beter van worden...
Eerst de hardware , daarna wordt de software ontwikkeld die ermee om kan gaan.
Logisch toch?
Jij vindt waarschijnlijk ook dat elektrische auto's zinloos zijn, omdat er nog relatief weinig groene stroom is. Of te weinig laadpalen.

Zodra je dit soort discussies aan gaat en je kan het toetsen aan een kip-ei verhaal, moet je je überhaupt afvragen of het zin heeft dit soort argumenten te gebruiken.

Vernieuwing moet ergens beginnen!
Hoop dat ze ook gaan concurreren op hardware ray-tracing.
AMD deed al raytracing voordat NVidia het begon te promoten.
De RTX is meer een gimmick dan een echte vooruitgang.
https://www.youtube.com/watch?v=kGxqiw8UWns
laat dat dan weer gewoon zien.
Als die gpu 250+ watt word dan dan word ik best wel depressed.
Een generatie geleden werd alles lekker zuinig zo vreet mijn 1070 maar 150 watt max en mijn cpu maar 75 watt.
De RTX serie vreet ook al 220 voor de 2080 en 275 voor de 2080 ti.
Gezien mijn gaming is 100 watt meer of minder al snel 85 euro extra over 3 jaar.

En dan krijg je weer de mensen met de geldpest die zeggen maar het is maar 80 euro. maar als je overal in je huishouden 80 euro bespaard dan loopt dat over de laren op in de duizenden euro's en daar kan ik weer een nieuwe pc van kopen.
Maar als er echt mensen zijn die de besparing niet snappen sponsoren zijn altijd welkom hoor.

Persoonlijk hoop ik op 2070/2080 performance in alle situaties voor een iets leuker prijsje want de nvidia prijzen zijn gewoon belachelijk ondanks meer silicon.

edit naar 100 watt zoals het moest zijn.

[Reactie gewijzigd door computerjunky op 29 april 2019 16:27]

Nou kijk ik heb toen ik mn pc bouwde ook zo gedacht. Ga ik wat het extra kost qua stroom in de verwachte levensduur van mijn pc besparen op duurdere spullen. Even een nogal basaal sommetje gemaakt en de conclusie was dat het net zo goed veel stroom mocht vreten. Ik heb toen zon FX8350 gekocht en een R9 290. Dat was de berekening 5 jaar geleden. Nu vreten componenten in dat marktsegment niet meer zoveel stroom.

Kijk als ik nu over ga op bijvoorbeeld een ryzen (althans als die 3000 serie er is) en zon navi is wat zuiniger dan maak ik een heel significante besparing. Niet alleen op stroomkosten maar ik sta niet mn kamer tot sauna temperaturen op te stoken. Die R9 290 is echt het toppunt. heb kans gezien om die gpu plaat blauw te stoken langs de randjes. En als de hele handel niet zo gloeiend warm wordt hoef ik ook geen miljoen kuub lucht door die kast te pompen.

Dusja ik hoop dat ze toch wat efficiente kaarten kunnen maken. Maar aan de andere kant als je een bepaald prestatieniveau wilt dan moet er gewoon veel energie in. Je gaat geen 2080ti prestaties voor elkaar krijgen met 100 watt verbruik.
Ik heb toen juist voor een zeer zuinige 3770k gekozen die was wat duurder maar over de levensduur van mijn systeem heeft me dat al meer als 325 euro bespaard op stroomkosten.
Ik heb 90 euro meer betaald als dat de fx 8350 me zou kosten dus dat is al een beste winst.
Daarnaast had ik vanaf dag 1 betere prestaties en betere compatibiliteit en daarnaast kan het systeem nu nog beter meekomen als een amd rig van toen dat kan.
ik heb dus op alle fronten de beste keuze gemaakt voor mijn gebruik. misschien dat jij jou systeem minder gebruikt en de game prestaties niet nodig heb dan word het sommetje natuurlijk heel anders.
Mijn rig word intensief langdurig gebruikt en dan tikt het rap aan.

en nee 100 watt ga je niet halen maar van 275 watt naar 220 wat is zeer zeker realistisch omdat het hier 12nm vs 7 nm betreft en voor de 2080 zou je makkelijk met 170 a 180 uit de voeten moeten kunnen. Ik hoop dank ook dan nvidia snel naar 7nm overstapt. zou ook goed zijn voor hun prijzen met meer yield per waffer.

Hetzelfde geld voor mijn gtx 1070 die maar 150 watt verbruikt. met de uren die er in zitten scheept me dat al snel 75 a 80 euro over 3 jaar ten opzichte van een vega en ik heb van dag 1 al top prestaties daar waar amd het van heel heel veel patches en driver updates moest hebben voordat ze mee konden komen en nog is het hit en mis met die kaarten.

Overigens is me wel opgevallen dat het verbruik niet altijd direct in relatie staat toch de warmte output. Zo verbruikt mijn GTX1070 'maar' 150 watt maar de hitte die er aan de achterkant uitkomt is best wel extreem te noemen.
In de zomer niet zo prettig maar in de winter geweldig. de verwarming in de game kamer staat altijd uit en dat scheelt gewoon een beste duit.

[Reactie gewijzigd door computerjunky op 29 april 2019 16:51]

10 watt meer verbruik, bij 8 uur per dag gamen, voor elke dag in het jaar, met 0,25 euro per kw/u, maakt 7,5 euro per jaar...

Of game jij 32 uren per dag? ;)
Moest natuurlijk 100 watt zijn wat je had kunnen zie aangezien met vergelijking met mijn 150 watt gtx 1070.

Ik ga gemiddeld uit va 4 uur a 0.23 momenteel door de snel stijgende stroom prijs en ik later dit jaar mijn contract moet verlengen en verwacht dat te gaan betalen.
Life is making choices. Hoop opties of toch maar een kale maar krachtigere motor?
Dan maar uurtje minder gamen of iets zuinigere GPU. (of meer verdienen / zakgeld vragen ;) )

In het Engels hebben ze daar een mooi spreekwoord voor "You can't have your cake and eat it"

[Reactie gewijzigd door OxWax op 29 april 2019 14:41]

Zakgeld vragen :+ :P m'n moeder ziet me aankomen.

Maar serieus het is natuurlijk wel slecht als amd om dezelfde prestatie te halen meer wattage op een lagere procedé nodig heeft.
We hebben het immers over Nvidia op 12nm vs AMD op 7nm.
Dat is toch wel de achilleshiel van AMD momenteel. ze moeten gewoon stroom slurpen om het bij te kunnen benen.
Iets dat overigens beide Intel en Nvidia ook meegemaakt hebben.

Ach ja we gaan het allemaal wel zien ik blijf sceptisch zoals altijd maar hoop wel dat het een solide product is want qua prijs hebben we dat gewoon nodig maar amd heeft een hoop te verbeteren.
Je hebt helemaal gelijk, maar ik denk dat gamers het niet zo erg boeit.
Prijs, prestaties, bouwkwaliteit en garantie zijn voor mij belangrijker.
Wat betreft professionele gebruikers (bedrijfsmatig) ben ik wel benieuwd.
Ik denk dat juist pro gebruikers hier totaal niet om malen omdat het gros toch afschrijfbaar is of simpelweg doorberekend word.

Ik denk dat het deel van de gamers dat nog thuis woont hier ook totaal niet naar kijkt omdat ze nooit de rekening gepresenteerd krijgen en zich er dus simpelweg niet van bewust zijn.

Eigenlijk zou het goed zijn als iedereen opgroeit met weinig en daardoor leert dit soort kosten mee te nemen.
Dat ze daarna de keuze maken dat het ze niks boeit en meer willen betalen voor hetzelfde tja dat is hun keuzen en daar kan ik helaas niks aan doen.

Ik kan het nu prima betalen maar door mijn opvoeding heb ik leren waarderen dat je wat heb goed moet besteden en dus financieel slimme keuzes te maken.
Noem me krenterig maar ik ben 1 van de weinige mensen in mijn omgeving die het financieel zo goed voor elkaar heeft omdat ik niet van dag tot dag leeft maar iedere uitgave bereken soms zelfs onbewust.
Daardoor erger ik me vaak ook aan mensen die producten als een 9900k kopen. als iedereen zou zeggen : JA DAG dat ga ik niet betalen dan was hij nu 400 euro geweest.
Maar doordat iedereen hem lekker toch gekocht heeft is de prijs gerechtvaardigd en kan ik of 530 euro betalen of hem niet kopen.
Daarom blijf ik ook proberen mensen bewust te maken van dit soort verborgen kosten want aan het einde van de rit als iedereen diezelfde weloverwogen beslissing maak word ik er zelf ook beter van ipv dat ik overgeleverd ben aan mensen met een gat in hun hand die een stuk maand overhouden aan het einde van hun salaris.

En ja ik kijk ook naar garantie. zo koop ik liever iets van 100 euro voor 110 a 115 lokaal dan dat ik het online bestel.
Echter zijn de verschillen in lokale winkels vaak dermate groot dat je toch online uitkomt.
Zeker met duurdere producten die ook nog eens gratis verzonden worden.
Wellicht ook interessant:

Over the last decade or so, AMD has essentially built a name for itself in the GPU space as the budget king. And, as Nvidia gets ready to release its next generation of Turing RTX graphics cards that cost upwards of a thousand bucks, AMD will probably double down on this – just like it released Ryzen and Ryzen Threadripper to counter Intel. As for the exact pricing, we’re not entirely sure, but we expect the pricing to follow in line with the Radeon RX 500 series. We can expect the prices to go up, however, due to the likely inclusion of GDDR6 memory, which we’ll dive into later. Either way, expect to pay more for the Radeon RX 650. Beyond the rumor that it’s going to be running on a 7nm process and GDDR6, there’s not much we know about AMD Navi. Because AMD Navi is going to be the first mainstream GPU processor to break away from the GCN architecture, we could see more shaders and faster clock speeds, while improving efficiency substantially.

And while we initially didn’t think that AMD would compete on the high-end with Nvidia with Navi, Sony Lead System Architect Mark Cerny recently revealed some details about the PS5, which will be powered by AMD Navi, that make us think twice. For instance, the PS5 will likely support ray tracing, along with 8K resolutions. We thank that’s a little pie-in-the-sky, and we’d take it with a grain of salt. But, AMD Navi could theoretically mark a true generational shift. We just don’t think that will happen with the 2019 Navi 10 graphics cards. However, because the details were extremely vague in this interview, we’ll have to wait and see.

En nog veel meer is hier te lezen/vinden = techradar.com
@techradar.com/news/amd-navi :)

[Reactie gewijzigd door SSDtje op 29 april 2019 13:43]

Het grootste gerucht (en hoop) was dat AMD met de Navi eindelijk een nieuwe architectuur in de markt zou zetten. Dit is echter wederom niet het geval. Het is weer een (verbetering van) de GCN architectuur, zie :

https://www.youtube.com/watch?v=5BbqzXbxCf8&t=405s

Dit betekend dat Navi (marginaal) langzamer zal zijn dan de Radeon 7 maar veel goedkoper te produceren zal zijn. Dus 2080 performance voor rond de 400 / 450 euro.
Ik vind het energieverbruik van 200 tot 300W nog veel te hoog, op hoeveel nano meter worden deze chips eigenlijk gebakken?

Op dit item kan niet meer gereageerd worden.


OnePlus 7 Pro (8GB intern) Microsoft Xbox One S All-Digital Edition LG OLED C9 Google Pixel 3a XL FIFA 19 Samsung Galaxy S10 Sony PlayStation 5 Sony

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True