Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 53 reacties
Bron: Beyond3D

Op het forum van Beyond is een gelekte presentatie van ATi opgedoken genaamd "Save the Nanosecond! PC Graphics Performance for the next 3 years". De presentatie, bedoeld voor game ontwikkelaars, heeft een tweetal onderwerpen. Het eerste deel gaat over het optimaliseren van shader programma's. In het tweede deel wordt een blik geworpen op de toekomst van pc graphics. Hierbij komen we meer te weten komen over de mogelijkheden van de R420 en die van de concurrentie, maar de meeste details blijven in nevelen gehuld.

Wat we wel te weten komen is het volgende. Allereerst vraagt versie 3.0 van de pixel- en vertex shaders om 32-bits precisie en de R420 zal dat dus ook ondersteunen. De volgende DirectX-standaard, die waarschijnlijk gelijktijdig met Longhorn geïntroduceerd zal worden, zal zelfs vragen om 64-bits precisie. In de notities die bij de slides staan lezen we verder dat ATi developers ontmoedigt om gebruik te maken van 'static flow control' (if/then-constructies) binnen shader programma's gezien de performance problemen. De NV40 kan hier echter wel zonder problemen mee overweg en in de aantekeningen wordt het zelfs 'the main extra feature on NV40 vs R420' genoemd. De R5xx zal hier wel goed mee overweg kunnen. Hoewel de NV40 hier dus een streepje voor heeft op de R420, wordt er in de rest van de presentatie zeer negatief gesproken over de prestaties van nVidia's DirectX 9 hardware.

ATI PowerPoint slide
Moderatie-faq Wijzig weergave

Reacties (53)

Wat een opgeklopte lucht zeg!
Deze presentatie geeft helemaal geen inzicht in de R420 vs. NV40

Dat SM3 om 32bit vraagt is al tijden bekend. Staat immers in de specs.
Dat DirectX 9 geen volledige SM3 implementatie vereist is ook bekend. DX9 kan omgaan met de onderdelen, maar vereist het niet!
Zegt dat dus iets over de R420? Nee dus. Dit is stokoude informatie. Als bekent sinds DX9 is vastgesteld.

De presentatie geeft ook absoluut geen indicatie dat de R420 SM3 volledige ondersteunt.
<edit> Je zou zelfs kunnen denken dat omdat ATI het in de commentaren over hun eigen 'SM3 parts' heeft, en niet over 'R420', dit juist een aanwijzing is dat de R420 geen volledige SM3 ondersteuning heeft. En dat zou in lijn zijn met de De Beyond3D consensus, dat er wel VS3 maar geen PS3 in zit... </edit>

NB: Deze presentatie gaat niet over de R420, maar over de algemene eigenschappen van de GPU's op dit moment, en waar het de toekomstige 4 jaar naar toe gaat.

Wanneer er over DirectX Next gesproken wordt betekend dat dus zelfs verder dan R500/NV50!!!


Ook grote flauwekul om te denken dat omdat ATI developers ontmoedigt om static flow control te gebruiken, ze dus wel langzamer zouden zijn dan NV40. onzin Dit gaat om algemen eigenschappen van GPU's!
Er wordt ook ontraden om je textures via de AGP bus te halen. Gaan we nu ook denken dat de R420 op dit punt veel langzamer is dan de NV40?
Kom nou toch.. Wees in vredesnaam eens een beetje realistisch!

Die R420 vs. NV40 hype begint belachelijk te worden op deze manier. Deze presentatie geeft gewoon geen extra inzicht in de R420 vs. NV40.
jij snapt het :)

Als iedereen nou gewoon nog ff een maandje wacht dan zullen er wel benches komen en dan kan je eindelijk zien welke nou sneller is of niet.
Zulke uitspraken in een presentatie zullen toch (voor wat betreft het negatief beoordelen van de NV40) met een korrel zout genomen worden: het blijft een concurrent die het zegt.
Helemaal mee eens, je gaat natuurlijk niet als concurrent nu al zeggen dat je kaart onder doet van de NV40.

Ik wordt steeds nieuwsgieriger welke van de 2 kaarten sneller wordt nu de specs langzaam opkomen.

Wat ik alleen wel erg vind is om te lezen dat Longhorn mogelijk 64bit videokaarten eist. Een besturingssysteem hoeft er toch niet grafisch mooi uit te zien? Het moet toch gewoon snel en stabiel werken?
Idem, ook dat maar:
In de notities die bij de slides staan lezen we verder dat ATi developers ontmoedigt om gebruik te maken van "static flow control" (if/then-constructies) binnen shader programma's gezien de performance problemen. De NV40 kan hier echter wel zonder problemen mee overweg en in de aantekeningen wordt het zelfs "the main extra feature on NV40 vs R420" genoemd
Alweer een gemis, dit is alweer net zoals bij FOG Table rendering nu. Welk ATI Totaaaaal niet kan weergeven maar in plaats daarvan verzinnen ze er een mooi smoesje en renderen ze lauter FOG Layers. Terwijl beiden door NVidia zonder problemen ondersteund worden. Echter FOG Tables is een grote drukker in FPS welk misschien de reden is van het weglaten van support. Echter een redelijke naaistreek om het op deze manier uit te voeren.
P.S Fog Tables = Per pixel de licht degradatie berekenen en op die manier mist simuleren. En dat in 3D. Zeer zwaar maar wel een mooi effect. Echter wel een oudere techniek maar wel effectief bij het creeren van een realisctisch landschap.
Tegenhanger = FOG Layers, mist in lagen, dus gewoon lagen pixels met een verschillende doorschijnendheid.
Vermeldt je ook even de gemissen van Nvidia? Zoals bv het feit dat de gehele FX reeks DX9.0 niet volledig ondersteunt?
Dit is dus waarschijnlijk om compliant te zijn aan een nieuwe DirectX versie. Daarvoor zullen er weer een hoop nieuwe features/verbeteringen nodig zijn in vergelijking met directx 9
De volgende DirectX-standaard, die waarschijnlijk gelijktijdig met Longhorn geïntroduceerd zal worden, zal zelfs vragen om 64-bits precisie.
verkloot de quote doe je maar op GoT ;)
Misschien is het een interne presentatie?
Ik denk het niet :Y) ...
De presentatie, bedoeld voor game ontwikkelaars, heeft een tweetal onderwerpen. Het eerste deel gaat over het optimaliseren van shader programma's.
Vooral in de comments is de smeuige informatie te vinden.

"But be careful not to trash NVIDIA too hard here &#150; your audience will help you out later..."

Begint er toch op te lijken dat ATI toch wel iets angstig is voor wat de concurrent gaat brengen.

"Mention that you expect to see a 512MB board in the consumer space this year. Don’t say that it’ll be R420 based!"

Specs voor de toekomstige kaarten mogen natuurlijk niet lekken :7
Ik lees er helemaal geen angst in:
Veroordeel Nvidia niet te hard nu, je klanten doen dat straks uit hunzelf wel.

Of wellicht anders, veroordeel Nvidia niet te hard nu, de developers doen het later in de presentatie uit zichzelf wel.
Er vanuit gaande dat met audience the developers bedoeld word.

Klinkt volgens mij juist zelfverzekerd ipv angstig.
Uit hunzelf
uit hunzelf? waar heb jij Nederlands geleerd?
Hoewel de NV40 hier een streepje voor heeft op de R420 wordt er in de rest van de presentatie zeer negatief gesproken over de prestaties van nVidia's DirectX 9 hardware
No shit, Sherlock.
Dus zal die presentatie een beetje per ongeluk expres zijn uitgelekt.
'uitlekken' is zo goed als altijd opzettelijk. Zodra het niet opzettelijk is hebben ze het opmerkelijk genoeg meestal over 'diefstal'...
<off-topic>
was het Sherlock maar, dan zou de eerste alinea niet barsten van de chramatikale vauten
</off-topic>

ik denk dat ze iets teveel informatie gegeven hebben door te vermelden dat de R5xx serie wel goed overweg kan met static flow control. De gamers voor wie deze kaart het meest interessant is zullen mijns inziens wachten op de R5xx of kiezen voor de NV40.
beetje waanzin argument want jij weet nu niet of de shaders in je favo games met if/then lusjes zijn gebakken of niet.

Tenzij jij zoveel verstand van games hebt dat je mij nu alvast kan vertellen of dit voor de komende Doom-engine, de HAVOC engine en de Unreal engine veelal met statische of dynamische codepaths gevoerd gaan worden door de respectievelijke games... dan zou je een videokaart kunnen kopen die voor die ééne game helemaal geweldig is.
Als je het echter door de bril van de realiteit bekijkt dan zie je gewoon dat degene die in de benchmarks van verschillende spellen het beste presteert gewoon de kaart is die je hebben moet. En of die NV40 nou relatief beter presteert met static shaders... als ie dan op 100% van z'n max performance draait, en de R420 bijvoorbeeld op 50%, maar de R420 was a 2x zo snel, dan blijft het eindresultaat identiek.
ALS de NV40 in een statisch codepath al beter presteert dan de R420 in absolute getallen (FPS), dan nóg kan het heel goed zijn dat de R420 een véél betere game kaart is, voor al die frames die gerendert worden waar géén shaders met static codepaths inzitten, en dan hangt het dus van de game af of de kaart al dan niet beter is.
Ervanuitgaande dat alle programmeurs een basiscursus "optimaliseren van je gfx engine voor de twee meest gebruikte videochips" gevolgd hebben dan is er werkelijk geen zinnig woord te zeggen over je premature ideeën om een NV40 te gaan kopen en kan je hele argumentatie op dit puntje helaas zó de prullenbak in.
[offtopic]

Ik denk dat Ati en Nvidia zich qua ondersteuning veel meer op DirectX richten dan op OpenGL. Het zal me daarom ook niks verbazen dat vroeg of laat OpenGL als API voor spellen grotendeels van het toneel gaat verdwijnen.
ATI richt zich zeker meer op Direct3D dan op OpenGL, dat is ook te merken in de OpenGL ondersteuning van het bedrijf. nVidia daar in tegen heeft een zeer goede reputatie op het gebied van OpenGL support in haar drivers. en dat is weer terug te zien in de populariteit van het merk in de 3D Design/CAD wereld.

En zolang Carmack nog OpenGL engines programeerd (mogelijk nog maar een...) zal OpenGL ook nog wel even bestaansrecht hebben. en de Unreal engine doet het ook prima op OpenGL. misschien zien we in de toekomst games standaart multi platform. maar hopen dat XNA niets wordt.
vervelend gedrag is dat toch, steeds maar de tegenpartij 'zwartmaken'. Nvidia was daar altijd goed in en nu begint ATI ook al. Als ze nou eens gewoon accepteren dat stevige concurrentie alleen maar gezond is. (zullen ze waarschijnlijk wel weten..maar dit moddergooien is zo vervelend, laat eerst de feiten maar spreken)
U vergeet dat dit een gelekte presentatie is.
Dus zolang het binnen ATi of de klantenkring van ATi blijft, is er niks aan het handje.
De prestatie, bedoeld voor game ontwikkelaars
Niet voor ATI zelf en niet voor haar klanten...
Niemand zegt dat ze geen gezonde concurrentie wensen. Ik bedoel zonder spanning zijn een hoop dingen ineens niets meer aan. Ati is het alleen niet helemaal eens met nVidia's manier van verwerken van gegevens voor bepaalde shaders.
Dat hoort bij concurrentie, het heeft geen nadelen...
En toen kwam XGI met een uit 4 Chips bestaande 3D Kaart en verpulveren ze ATI en nVidia :+ :7 :P
En dat voor slechts 200 Watt...én 90 graden, moet je zien wat je dat aan gas bespaard, da's echt ongelofelijk :+
neenee.. de bitboys :+
Of 3DFX komt terug van vakantie met de VooDoo 8 16000
Ja en vergeet je niet 4 molexen + de 160 graden die daar vanaf komt wat dat bereft ownt XGI alles en iedereen kwa features
dit ontkracht dus eigenlijk de geruchten dat de kaart NIET PS/VS 3.0 zou ondersteunen....
waarom zouden ze anders 32bit precisie ondersteunen, als ze toch niet willen voldoen aan de dx9.0c standaard?
is alleen maar performance verlies!
Inderdaad. En dat was nou juist één van de geruchten waar iedereen het meest van overtuigd was dat die klopte.

Enige optie zou nog zijn dat de performance hit tov het kwaliteitsverschil het niet de moeite waard maakt het te gebruiken.
Leuk om te zien dat de GPU bakkers de gamedevelopers pushen richting DirectX9 zodat hun nieuwe hardware weer beter verkoopt (meer DX9 titels op de markt).
Nvidia is helemaal niet zo slecht, zolang er maar pixel en vertex shaders worden gebruikt. Dan is Radeon ineens in het voordeel. Ik denk dat die voorsprong nog wel behouden blijft. Nvidia, loopt gewoon even achter de fijten aan, met pixel en vertex shaders en al dat soort dingen. Maar ooit wel eens gehoord van; de wet van de remmende voorsprong? Ik denk dat dat gaat gebeuren in Ati vs. Nvidia. Ik ben in elk geval nog dik tevreden met mijn ATI!

[voor firepath] Nvidia!! (en ik heb zelf nog wel een gforce gehad |:(
Niet zoveel rondhangen in de drogisterij jij... Het is nVidia, geen Nvidea... net als Nivea ofzo :+
Als je het toch over een apotheek hebt, kan die ook meteen wat voor zijn fijt halen, want dat is ook een feit.
Je bedoelt het denk ik wel goed, maar je zegt het wat moeilijk. Even voor de duidelijkheid: ATI gebruikt gewoon, op volle snelheid, pixel/vertex shader 2.0 progje. Nvidia kaarten kunnen ze wel weergeven, maar op een dusdanig trage manier dat ze in de nvidia codepath terugvallen op pixel/vertex shader 1.4 of zelfs 1.1. Dan gaat het wel iets (bijna niet te merken) sneller dan ATI, maar met veel minder features (dus lang niet zo mooi).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True