Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 18 reacties
Bron: The Inquirer, submitter: Av3ng3rtje

The Inquirer denkt goede aanwijzingen te hebben gevonden die aanduiden dat ATi's R480 PCI Express-GPU mogelijk in het vierde kwartaal van dit jaar uit zal komen. Ze baseren dit op het feit dat de R480 niet veel anders is dan een snellere versie van de R423, de GPU die we tegenkomen op de ATi Radeon X800 XT-kaarten. Sommige analisten denken dat de R480 met Pixel Shaders 3.0 is uitgerust, maar The Inquirer denkt van niet. ATi heeft namelijk aangegeven dat 2005 het jaar is waarin het GPU's met Pixel Shaders 3.0 zal introduceren: de R500-GPU. Het lijkt er dus erg op dat de R480 qua architectuur nagenoeg gelijk is aan de R423, wat een introductie in Q4 2004 mogelijk zou moeten maken.

ATi en nVidia roadmap
Moderatie-faq Wijzig weergave

Reacties (18)

lijkt me niet verstandig van ATi om dan nóg geen SM3 te ondersteunen.
implementatie ervan lijkt makkelijk én dus snel...
prestatievoordelen lijken ook aanzienlijk.
Prestasie voordelen zijn niet zo groot.

Het doel van PS 3.0 support was:

a) makkelijker maken voor developers
b) speed increase door if and statements/ Dynamic branching & langer PS support.

Probleem is, dat de huidige hardware zelf problemen heeft met dynamic branching ( ene van de top feature's ) waardoor zelf nvidia aan developers afraad om te gebruiken. De latency dat gegenereerd door dynamic branching op de huidige hardware doet het voordeel ervan juist voor een deel teniet.

Er zijn intussen al genoeg Ps 2.0 vs 3.0 disccusie geweestdat aangeeft dat ps 3.0 niet zo een grote jump is.

De befaamde farcry zogenoemde Ps 2.0 vs 3.0 screenshots zitten nog te veel in mensen hun hoofd ( terwijl deze screenshots werkelijk 1.4 vs 3.0 waren ).


En uw andere punt:

De implementasie van ps 3.0 is niet zo simpel & makkelijk op hardware gebied. Het kost tamekijk wat resource's wegens de andere manier van werken.


Voor mij lijkt het wel verstandig van ATI om geen volledige PS 3.0 te ondersteunden De developers staan niet te springen voor PS 3.0, niet zoals PS 2.0. Op zen best zullen we mechien maar een paar game's zien met beperkte PS 3.0 support. Zodus waarom nu een kaart uitbrengen met crippeled PS 3.0 support ( je hardware moet er ten volle gebruik van kunnen maken ); als je volgende jaar ineens met een nieuw gpu kan afkomen met deftig support ( en tegen dan zullen er meer game's gaan uitkomen met PS 3.0 )..
ATi zou asap PS 3.0 moeten gaan ondersteunen. Niet omdat het handig is momenteel, of er spelletjes zijn die er gebruik van maken dan wel voordeel bij hebben. Maar om de simpele reden dat developers graag hun kunsten testen op hardware.

Toen ATi met de 9700 Pro kwam was dat op dat moment (voor een aanzienlijke tijd zelfs) de enige kaart ter wereld die DX9 ondersteunde. Ergo: alle developers gingen hun DX9 code basseren op de ATi kaart, want dat was de enige kaart waarop het te testen viel.

Dat heeft ATi een niet onaanzienlijk voordeel opgeleverd. Want om een DX9 spel op een ATi kaart te laten lopen zijn geen aanpassingen nodig. voor de nVidia kaarten wel, want hun DX9 ondersteuning kwam pas veel later en developers wisselen dan niet meer zo snel van kaart. Dus voor nVidia kaarten moe(s)t telkens extra code geprogrammeerd worden.

Nu draait nVidia dat voor 1 feature weer om. Wat simpel weg zal inhouden dat het nVidia codepath straks de standaard code-path wordt voor deze feature, en dat er dan dus extra geprogrammeerd moet worden om straks van dezelfde feature gebruik te maken op een ATi kaart.

Het gaat er simpel weg om dat developers er NU al mee kunnen spelen. Ze kunnen met de nVidia kaart NU al gaan proberen om te kijken wat ze met PS 3.0 op een nVidia kaart kunnen doen. Iets wat ze nu dus mogelijk pas volgend jaar kunnen gaan doen op een ATi kaart.
Een intressante weergave die ik voor een deel steun Boushh, maar <--- wat je zegt klopt niet gans. DX9 is een standaard. De implementasie van DX9 op ati & nvidia hun kaarten is dezelfde.

Het verschil begint wanneer de hardware de instructie's uitvoert. Ten tijden van de NV30 / NV 35 was de grote fout niet de code zelf van nvidia, maar het feit dat de NV30/35 enorm slecht presteerde op gebied van PS 2.0. De kaart was designed rond een PS 1.4 design ( wat ook duidelijk was in de resultaten in benchmarks waar de NV30/35 vrij goede score's neezetten ).

Het redesign werk dat de game developers hadden was niet het aanpassen van de PS 2.0 om juister te werken op de NV30/35, maar het toepassen van PS 1.4 om zware instructie's beter te doen lopen.

Nvidia hun PS 2.0 implementasie was correct. Het design van de kaart was gewoon mis, waardoor PS 2.0 niet op zijn recht kwam.

Nu zitten we met een omgekeerde wereld. Ja, ATI zou met moeite een PS 3.0 kaart kunnen maken hebben. Maar, dan kom je in problemen ... Zal hun PS 2.0 nog goed kunnen werken ( want PS 3.0 hardware design is anders dan PS 2.0 ). Dan komt nog het feit, zouden ze op een mixed hardware design ( gebasseerde op de R300/R350/R360 ) wel een deftige speed kunnen neerzetten. ATI heeft gemakkelijkshalven het antwoord al gegeven. Nee ... ze konden geen deftige speed geven, want anders zouden ze wel PS 3.0 gereleased hebben.

Het was voor hun een enorme gok. Verder werken aan een werkend PS 2.0 design & het verbeteren of werken aan het hybriede die mogelijk in hun gezicht kon onploffen remember, het duurt 2 jaar voor een GPU te ontwikkelen ). We zien dezelfde probleem nu met Intel & hun Prescot design, waar ze met de handen in het haar zitten wegens de problemen.

Maar je moet ATI ook niet aanzien als een totaal verliezer op gebied van PS 3.0. Iets dat mensen vergeten, dat ATI hun PS 2.0 + noemt, en daar is een grondig reden voor. Die + geeft aan dat men een aantal functie van PS 3.0 geimplementeerd heeft, enkel de paar grote ( en die dat een andere architectuur nodig hebben zoals dynamic branching), deze zijn niet aanwezig.

Als ik me herinder van de discussie's van enkel programmeurs, was het verschil vooral 3 of 4 grote functie's die ATI niet had. Het is toevallig dat nvidia juist 1 van die grote functie's niet aanraad omdat ze zelf geen deftig speed kunnen halen. Ik dacht dat Nvidia een latency van 2 kreeg / instructie, ipv een 1 die men heeft in PS 2.0. En pas als men zeer lange instructie's had, kon men dat verschil terugkrijgen voor een deel.

Dit is een belangrijk feit, dat zelf nvidia bepaalde zaken niet aanraad te programmeren in PS 3.0 omdat hun hardware een meer negative hit veroorzaakt dan met PS 2.0.

Het maximum dat je zal zien tot volgende jaar zullen mixed mode game's zijn. Programmeurs zullen PS 2.0 combineren met een paar functie's van PS 3.0, maar dat zal het zijn. ATI zelf zal draaien op PS 2.0 functie's.

Het gevaar dat Nvidia puur haar eigen instructie gaat implementeren is er infeiten niet, sinds deze voldoen aan de DX 9 specs.

Ik kan je een perfect voorbeeld geven, dat programmeurs hun eigen zin zetten op wat beschikbaar is tijdens hun development cycle. Onze Doom III ( Carmack ) specialist, was orgineel op de ATI's aan het developen geweest, maar is dan pas met de NV35 geswitched. Maar hij had wel een hoop verschillende code path's gemaakt ( 1 voor de ATI ( default ABR als ik me juist herinder ) & een speciaal voor de nv_30 path ) & nog een paar.

Zelf al beginnen developers nu met de NV 40's haar PS 3.0 te implementeren, zodra volgende jaar de next generatsie uit is, zullen developers al hun software aan het aanpassen zijn ( alle, dit is niet 100% correct, want in generaal krijgen developers de kaarten sneller dan het gewoon publiek ;) ).

Moest PS 3.0 echt zo een grote jump geweest zijn, dan zou ik ook effe panikeren, maar met wat ik allemaal gezien heb in de forum's, is PS 3.0 infeiten een te grote naam. Men had het beter PS 2.5 ofzo genoemt kunnen hebben. Het is niet zo een jump om schrik van te krijgen op gebied van support ;)

Edit:

Als je wilt meer weten, raad ik je www.beyond3d.com aan. Het forum zit vol met programmeurs die constant in discussie gaan ( nee, geen flaming discussie's zoals rage3d, nvnews etc ) over de hardware, implementatsie's etc. Dat is een uitstekend plaats om zaken bij te leren, en daar ondek je ook dat PS 3.0 niet alles.
True true (onder voorbehoud).

Maar het gaat uiteindelijk om de verkoopcijfers. En reken maar dat de marketing afdeling van Nvidia het shader 3.0 voordeel op Ati uit gaat buiten.
Maar het gaat uiteindelijk om de verkoopcijfers. En reken maar dat de marketing afdeling van Nvidia het shader 3.0 voordeel op Ati uit gaat buiten.
Dat nvidia een PR dienst heeft van jewelste dat weet iedereen al. Maar het PS 3.0 voordeel wordt wel gecounterd door het 3Dc voordeel.

Hier is een demo van een developers gemaakt heeft met 3Dc:

http://www.rage3d.com/board/showthread.php?t=33766518&highlight=3dc

With shadows:
No compression: 125fps
3Dc: 146fps (+17%)
DXT: 136fps (+9%)
3Dc & DXT: 158fps (+26%)

Without shadows:
No compression: 164fps
3Dc: 210fps (+28%)
DXT: 195fps (+19%)
3Dc & DXT: 239fps (+46%)

Zeg nu zelf, door het toepassen van de 3Dc compressie ( zonder detail verlies ) haalde de demo van 17 tot 46% ( met toepassing van DXT ) verschil.

Dit laat developers toe:

a) ga voor de extra speed increase.
b) ga voor dezelfde speed maar heeft tot x* meer details.

Ik zie meer nut in 3Dc dan PS 3.0, zeker als je de prestasie verschillen vergelijkt. Natuurlijk zal de nvidia PR dienst de PS 3.0 zeer grondig promoten naar de eindklant, maar het zijn de developers die de game's maken, en deze zijn zeer grondig geintresseerd in 3Dc.
ik snap niet wat dat nou steeds is ik heb toch duidelijk gezien wat de makers van farcry nu al kunnen met ps3.0 en dx 9.0b dus waar heefd iedereen het over :?
het verschil is superduidelijk.
Plus je kan PS3.0 nog niet gerbuiken: er is geen ondersteuning voor in de huidige DirectX (en ik geloof ook nog niet in DX9.0c...maar dat weet ik niet meer 100% zeker).
oke, maar ook in hedendaagse games worden er al wel voordelen beschreven door devs:
http://gathering.tweakers.net/forum/list_message/21110417#21110417

wel een Nvidia dev, maar toch... :+
@puppetmaster: ATi zal wel vinden dat de kaarten op dit moment gewoon nog niet snel genoeg zijn om echt goed ps3 te ondersteunen en dat ze daarom liever wat meer tijd in ps2 steken.
Of het past gewoon nog niet in hun stratgie. Want ps3 ondersteunen vraagt een klap transistors meer en mischien passen die gewoonweg niet meer op hun chip. En daar komt bij dat als ze de chip groter maken hij meer gaat verbruiken en ze dus dat voordeel kwijt zijn tegenover de concurrent.
Ps3 is puur hardware.
het is "gewoon" een questie van toevoegen aan je chip. de snelheid van die chip heeft daar weinig mee te maken.
hij word er eerder negatief door beinvloed aangezien hij groter is en dus moeilijker hoog te clocken.
Persoonlijk denk ik dat ATI zo'n kaart pas introduceert als genoeg mensen een PCI-Express slot hebben op hun moederbord. En dat vind ik een even goede leidraad als deze van de Inquirer. En als het al dezelfde chip is dan kunnen ze hem dus elk moment uitbrengen tussen de X800 XT release en nieuwjaar en zie ik dus absoluut weer niet het nut van een "nieuwsbericht" van de Inquirer.

P.S.: Leuker zou ik het vinden als we wat extra moddergooien tussen nvidea en ati zien over bruggen. De symboliek van het vechten over wel of niet een brug brengt een grote glimlach op mijn gezicht.
als er mensen zijn die snel een pci-express slot op hun mobo zullen hebben dan gaan dat waarschijnlijk de powerusers zijn. en laat nou net die groep ook de doelgroep zijn voor deze kaartjes.

en je kan die pci-express borden (voor intel's) al bijna kopen in de winkel dus ik denk dat ATI niet zo lang op zich zou moeten laten wachten wat dat betreffed.

btw, het is niet preciess de zelfde chip.
het GFX gedeelte is wel exact het zelfde, maar door de native pci-express interface zal hij toch appart gebakken moeten worden, wat een hoop tijd en geld kost.
Ja maar als die chip te langzaam is dan heeft het ook weinig nut op ps3 erop te doen. Dan krijg je van de fx5200 dingen, heeft wel dx9, maar is eigelijk nog te sloom voor dx8.
Off-topic

is er maar 1 plaatje de laatste tijd? Ik zie nu al de derde posting mbt nVidea en ATI met dezelfde roadmap afbeelding erbij

/Off-topic
Zie ook hier voor plaatjes :)
Dat die roadmap er steeds bijstaat lijkt me trouwens wel handig, anders moet je steeds naar andere nieuwsberichten zoeken voor dat plaatje.
Er is weinig keus, want een plaatje van de R480 of R500 is er nog niet. De ervaring verteld ons ook dat een plaatje van de R423 door sommige voor een R480 wordt aangezien, dus dat is ook geen optie. Dan rest ons dus niks anders dan een plaatje van de roadmap of het logo van ATi..... De roadmap leek mij dus beter op zijn plaats :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True