ATi's R350 komt in februari uit als Radeon 9900

FiringSquad heeft op Comdex 2002 bij ATi het een en ander los weten te peuteren over de opvolger van de Radeon 9700 Pro, met de codenaamd R350: de nieuwe GPU zal waarschijnlijk als Radeon 9900 door het leven gaan. Deze chip is ATi's antwoord op de GeForceFX van nVidia. De Radeon 9900 heeft alles aan boord om de GeForceFX te verslaan. Zo gaat deze op een hogere kloksnelheid draaien dan nVidia's wapen in de strijd om de performancebeker. Met kloksnelheden van boven de 500MHz, efficiënte pipelines, ondersteuning voor DDRII-geheugen en HyperZ III-technologie zou de Radeon 9900 zelfs in de nieuwste DirectX 9.1-games voor hoge framerates gaan zorgen. De Radeon 9900 wordt verwacht in februari:

ATi Radeon 9700 GPU Finally, it will be interesting to see what ATI is up to come February. Word on the street is that ATI's follow-up to RADEON 9700 PRO (codenamed R350) has taped out recently and will be marketed under the name RADEON 9900. We've heard conflicting reports on its manufacturing process, we naturally assumed it would be a 0.13-micron part, but we've also been informed by another source that the design is 0.15-micron.

Door David Menting

Nieuwsposter

23-11-2002 • 23:37

119

Submitter: Verwijderd

Bron: FiringSquad

Lees meer

Geruchten over de ATi R350 VPU
Geruchten over de ATi R350 VPU Nieuws van 24 januari 2003
ATi versus nVidia @ X-Bit Labs
ATi versus nVidia @ X-Bit Labs Nieuws van 28 december 2002
"ATi Radeon 8500 wordt Radeon 9100"
"ATi Radeon 8500 wordt Radeon 9100" Nieuws van 8 december 2002

Reacties (119)

119
115
63
16
1
18
Wijzig sortering
Kijk nou toch. De ene na de andere nieuwe and interessante videokaart. en wie profiteerd van dit overgrote (high end) aanbod? iedereen. high end zakt in prijs naar medium end. en medium end zakt in prijs naar low end. Prachtig want zo heb je al snel een hele markt die pixel shaders ondersteunen zodat game developpers daar eindelijk eens rustig van gebruik kunnen gaan maken zonder de low end in de vingers te snijden.
Game developers letten natuurlijk niet op low end. Bij het maken van een spel kijken ze naar hoeveel tijd ze ongeveer nodig hebben totdat het spel klaar is en welke functies tegen die tijd dan gangbaar zijn. Wat hebben ze eraan om een spel te maken dat ook low end fatsoenlijk kan draaien?? Dan snijden ze zich in de vingers omdat dan hun spel tov andere spellen outdated zal zijn.
Onzin, ze nemen low-end echt wel mee in de schaalbaarheid van hun spellen. Veel spellen zullen in de toekomst perfect draaien op low-end (whatever low-end tegen die tijd is, maw de high-end van nu), maar de eye-candy als special is de beloning van de high-end. AA ed zullen daar gebruikt kunnen worden, pixelshaders, etc.... maar low-end is voor hun zeker wel intressant.

Hoe schaalbaarder, hoe meer potentiele kopers, hoe meer winst.
Sorry, maar hier moet ik even op reageren...

Die hele redenatie van "meer dan 24 fps is niet nodig, want een film heeft dat ook niet" is namelijk al een hele tijd geleden afgedaan als onzin. Ik zal de bewijzen even kort herhalen:
1. testen heeft duidelijk opgeleverd dat een mens met veel gemak het verschil van 50 of 80 FPS opmerkt. zelfs tussen 80 en 120 is nog wel een verschil op te merken voor mensen met goede ogen
2. TV/Film werkt volstrekt anders dan computer generated graphics. Een TV/filmopname is een "foto" van een scène, waarin de beweging ook vastgelegd wordt. Als je een TV/film stil zet, zie je dat 1 beeldje heel vaag is. Een bewegende arm wordt uitgesmeerd. Dit lijkt op de "motion blur" techniek die 3dfx met de v5000 wilde namaken. Dit zorgt er voor dat 24FPS vloeiend lijkt.
Als je deze motion blur vergelijkt met een beeld uit een first person shooter, dan zie je dat bij zo'n FPS elk afzonderlijk beeldje berekend wordt en dat dat een scherp beeld is. Een arm die je daar beweegt komt haarscherp, als een stilstaand object naar voren. Daar heb je veel meer beeldjes voor nodig om een vloeiend animatie-effect te creëren.

Conclusie van dit alles is dat voor computergames je minimaal rond de 80 FPS zal moeten draaien, wil je iets als "vloeiend" ervaren, alles minder dan dat wordt minder vloeiend, en minder speelbaar. Een shooter met een FPS van 25-30 zal het gros van de serieuze gamers afdoen als volstrekt onspeelbaar.
Welk nieuw spel kan je tegenwoordig draaien op een low-end videokaart? Neem bijvoorbeeld een Pentium 4 / GeForce2 MX. Daar kan je niet eens fatsoenlijk Medal of Honor op draaien. En dan heb ik het nog niet eens over een resolutie van 1024x768. Met low-end noem je ook geintegreerde videokaarten, zoals de nForce. Met een gemiddelde AthlonXP (1800+ - 2000+) en een nForce 2 haal je in Unreal Tournament 2003 dan ook niet meer dan 30FPS, zeker niet meer dan 20FPS in Comanche 4 en op meer dan 35FPS in Serious Sam 2 hoef je ook niet te wachten. Dit framerates die je non-acceptable mag noemen.
Voor een ieder die online of lan speelt, maar deze spellen worden door zoveel mensen gewoon in hun uppie gespeeld, dat die 30 en 35 fps vaak nog speelbaar zijn.

(En ik moet de batterijen van mijn keyboard vervangen, wat een fouten. Of minder drinken en vroeger slapen.)
Je moet niet naar een stilgezette film kijken, maar naar de originele film... vraag maar 's naar in een bios... als je aardig bent mag dat wel.

Dan zie je dat de losse framepjes behoorlijk scherp zijn hoor.
Hoe scherp de losse frames van een film zijn is een kwestie van de gebruikte sluitersnelheid bij de opname. Een mooi voorbeeld is het openingsgevecht van Gladiator,die is duidelijk met een hoge sluitersnelheid geschoten, je ziet zelfs de aarde die in het rond vliegt nog haarscherp.
Idd. Mijn pa pas een GF4 MX440 in zijn PIII-500mhz.
MOHAA draait 20fps+ , hij is tevreden.

Je heb dus meer aan een iets betere VGA-kaart dan een relatief snelle CPU en een brakke VGA-kaart.
Reactie op silentsnow:
Ja precies! En ik kan nu echt niet meer zonder een vaatwasser en zonder wasdroger en auto en zo :Z
Maar ja, 4 jaar geleden allemaal nog wel! See the point? 30 fps is hartstikke leuk om te spelen voor de meeste mensen; niet iedereen is een fragger.
Serieuse Gamers :? Die spelen geen stompzinnige shooters. Die spelen games met meer diepte....

Shooters zijn voor de puisterige pubers, met teveel testoron in hun aderen. Die alles VET vinden als het maar snel is.

Als iedereen minimaal 60Ffs zou moeten draaien, kan ruim 80% van alle games wel van de pc gehaald worden. De meeste mensen hebben nml. geen 300+ euro over voor zo'n supersnelle FPS-fabriek. Laat staan de overige poen voor de CPU/mobo/geheugen etc...

Waar jij het over hebt is optimale speelbaarheid, dat wil elke diehard gamer. Maar zoveel die-hard gamers zijn er niet. Wel recreatieve gebruikers die af en toe es willen vlammen. En die hebben meer oog voor het spel dan de FPS, de meeste weten niet eens waar je het over hebt. Het spel is goed of het is bagger, vinden ze veel belangrijker.

Het gros van de serieuze (foute term, zeg maar die-hard) gamer ? Je bedoelt die MIN 5% van de NL?

Zijn er nog 95% die met minder genoegen nemen, nee sterker nog er waarschijnlijk nog meer plezier aan beleven ook. Ze hoeven zich niet druk te maken over overclocken/benchmarks en systeemcrashes bijv....

My 0.02c
Spellen hebben geen motion blurr en filmcameras draaien geen 180° in <1s.
Iemand met 100fps constant fragged veel beter dan iemand met 24fps constant
Hier moet ik dan ook even op reageren aangezien jouw argumenten met het grootste gemak weerlegd kunnen worden.

1) Een mens kan ook het verschil met 200 fps waarnemen. Moeten we dan alle spellen maar op 200 fps spelen?
Waar leg je dan een grens? 25fps is een bewezen grens die acceptabel is. Elke andere waarde is compleet willekeurig gekozen. Moet je dan 50 nemen of 60 of 80? Niemand die daar antwoord op kan geven.
Ergens moet je een waarde kiezen, maar de argumenten voor 80 zijn niets beter dan voor 60 of 100.

2) Als je een animatie film stop zet heb je GEEN vage beelden. Neem bv Titan AE of iets dergelijks.
En toch ziet die film er ook gewoon vloeiend uit. Dat motion blur effect mag dan meespelen bij gewone speelfilms, het verklaart niet waarom animatiefilms er gewoon vloeiend uitzien.

Conclusie hiervan: Je hebt geen enkel argument meer om perse 80 fps te willen hebben voor computergames.

Morrowind met 25fps wordt door iedereen ervaren als compleet vloeiend. Sterker, 20 fps wordt al ervaren als vloeiend. Pas als mensen de framerate counter aan gaan zetten willen ze ineens hogere waarden bereiken.
Evenzo voor flightsims
En waarom is het op het scherm niet meer scherp?

Gebeurd er ineens iets met de lichstralen waardoor motion blurring verschijnt? Dat zou wel een heel bijzonder natuurkundige verschijnsel zijn.

Een dia is zeker ook niet scherp volgens jou?
95% van alle spellen draaien geen 180 graden in minder dan een seconde.

Sinds wanneer zijn die paar die-hard fraggers de norm waar het spellen in het algemeen betreft?
reactie op mjtdevries en anderen:

Ik krijg een deja-vu gevoel van een discussie, die pak-hem-beet 4 jaar geleden op een 3dfx newsgroup tegen kwam. Als je mij niet gelooft, lees dan daar maar eens.

om je punten nog even te behandelen:
- boven de 120FPS kan vrijwel niemand meer verschil in framerate waarnemen
- een film in een cinema draait op 48 frames per seconde (elk frame wordt 2x afgespeeld) met TV's is dit ook het geval, dit draagt bij aan het gevoel van een vloeiende beweging.
- tekenfilms op 24FPS lopen NIET vloeiend, afgezien van het effect van je TV, die werkt met een "uitdoof"- effect, waarbij het vorige beeldje vervaagt. Een computermonitor heeft dit effect niet/nauwelijks. Als je een tekenfilm op een moderne TV of een monitor ziet, en je bekijkt een "panning-scene" dan loopt dat absoluut schokkerig.
- bij animaties en computergraphics in bioscoopfilms wordt de motion-blur (het vervaag-effect dat optreedt met normale film) na afloop toegevoegd. George Lucas kwam dit probleem tegen toen hij de computer-generates scenes van zijn vernieuwde starwars trilogie zag. Dit liep schokkerig en dit was hun oplossing
- voor first-person shooters is een hoge framerate essentieel, omdat anders bij een snelle rotatie-beweging niet genoeg frames te zien zijn om nauwkeurig te mikken. Voor een schaakspelletje is het op zich minder van belang, maar dat was mijn punt dus niet.

Tenslotte: mij hoef je niet te geloven (al zou je dat veel tijd besparen) maar kijk dan tenminste even met google in de diverse 3dfx.* groups, rond 97/98 heeft er over dit onderwerp veel discussie plaatsgevonden en zijn al je "argumenten" al weerlegt, voor je ze verzonnen had.

Dit is tevens mijn laatste reactie op dit onderwerp, het is namelijk off-topic en een herhaling van al veel langer bekende feiten.
Discussies waarbij slechte argumenten gebruikt worden hebben heel vaak een deja vu gevoel

Als vrijwel niemand boven de 120 FPS verschil ziet, waarom zou je dan 80FPS als maatstaf nemen?
Alleen maar verder bewijs dat die 80FPS compleet willekeurig gekozen is. (3DFX koos voor 60FPS. Ook al compleet willekeurig)
(Onderzoek van Nasa geeft 200, maar dat gaat dat niet over of iets vloeiend er uit ziet, maar of je oog het nog waar kan nemen)

goh, toch raar dan dat ik nog NOOIT iemand heb horen klagen dat FF of Titan AE of iets dergelijks niet vloeiend zou lopen, maar schokkerig. (Of de CG scenes van Star Wars, waar ook geen motion blur ingebouwbt is)
Maar laat je vooral niet afleiden door de praktijk.

Zet een scene van Titan AE stil en je ziet dat er GEEN motion blur in zit.
Dat wordt ALLEEN gebruikt bij die scenes waarbij een object EXTREEM dicht langs de camera gaat.
Bv een ruimtevaartuig dat op een paar cm langs de camera gaat. Bij vaartuigen die net zo snel over het scherm vliegen, maar dan op een paar meter van de camera positie wordt geen motion blur gebruikt. Gebruik wederom bv Titan AE als voorbeeld.

3DFX ging uit van 60 FPS als ideaal. Dus waarom zou ik in die 3DFX discussies gaan kijken waarom je 80FPS zou moeten nemen, als je vervolgens al aangeeft dat je eigenlijk 120FPS moet gebruiken?

Mijn argumenten heb je zeker niet weerlegd, je hebt ze alleen maar verder bevestigd.
Ik ga er verder ook niet op reageren aangezien het OT is, maar ik wil hiermee maar aangeven dat er verrekte goede redenenen zijn waarom deze discussie nog steeds doorgaat. En dat gebeurt dus met ALLE discussies waarbij mensen limieten of optimale waarden stellen die compleet willekeurig gekozen zijn.
Age of Mytholoy, toch een spel dat grafisch gezien in zijn genre het beste biedt, loopt op een PIII 800 en Gefore2 MX zelfs op hoge resolutie net zo goed als als op een AMD1800 met GeforceTi4200. Met die schietspellen valt 't ook allemaal wel mee. Mischien dat DOOM III die nieuwe kaarten ECHT nodig gaat maken.
PIII550, geforce 2mx. NWN; 30 fps, UT2k3; 25 fps en hoger. Je moet alleen wel een beetje eye-candy tweaken cq resolutie op 800x600 zetten.

En alles boven de 24 fps is acceptabel; anders zou je ook geen film of tv kunnen kijken. 't is wel duidelijk dat jij je tech niet zo goed doorhebt als je denkt.
En alles boven de 24 fps is acceptabel; anders zou je ook geen film of tv kunnen kijken. 't is wel duidelijk dat jij je tech niet zo goed doorhebt als je denkt.
Het is jammer dat er altijd gebruikers zijn die kewtsende op flamerige opmerkingen maken tegen andere users.

Als je het hebt over 30FPS, 40FPS of zelfs 50FPS, dan heb je het over gemiddelden. Als je UT2K3 me 25FPS draait (gemiddeld dus), dan zijn er dus bepaalde momenten dat je rates van 20 of zelfs 15FPS hebt. Andere momenten heb je 30FPS. Je weet zelf ook dondersgoed dat 30FPS echt het minimum is, alles daaronder is onacceptable. Ik wil je daarbij op de FAQ wijzen van GoT.
Ja, op de film zelf is het wel scherp, maar op het scherm niet, en daar kijken we naar.
Je hebt gelijk, het beeld ziet er veel rustiger uit op een hogere framerate, maar vanaf ca.24 fps is het zeer goed te spelen (verschilt natuurlijk per persoon) Mensen die niet te veel geld hebben kunnen hiermee nog zeken van hun spellen genieten.
Dat hoeft natuurlijk helemaal niet zo te zijn, dit kan ook best een constante framerate zijn.
Thugbear heeft zeker gelijk; er zijn namelijk veel, veel meer gamers met een lowend machine dan mensen met een uberninja-bak. Een bedrijf dat dat segment vergeet, snijdt zichzelf in de vingers. Kijk bijvoorbeeld naar iD Software; maakt gebruik van de high end functies, maar zelf een bedrijf dat specifiek voor de high-end produceert zorgt er donders goed voor dat de engine scalable is, en er dus ook mensen met oude(re) machines mee kunnen spelen. De mensen met nu de geforce 4/9700 en straks een FX/9900 is ongeveer de top 5% van de markt.

Daarnaast is het ook een feit dat je dit soort hardware ook alleen nodig hebt voor 3d...kijk naar het meest verkochte pc spel aller tijden: the Sims. Daar heb je echt geen nvidiaFX voor te hebben. Ook niet voor iets als Civilisation III.
Niet goed dat het zo hard gaat.
De kosten om een nieuwe GPU zijn enorm hoog.
Chipfabrikanten halen het geld voor deze nieuwe GPU's uit de verkoop van eerdere chips.
Ofwel, als ze elke keer te snel komen met een nieuwe chip is er te weinig tijd om die kosten elke keer weer te dekken met de verkoop vaan oudere chips....
Inderdaad, als dit lang zo door gaat, dan gaat er gegarandeerd één naar de knoppen.

Historisch gezien is dat nVidia.
Vroeger werd 'de 2D' verslagen door 3Dfx (later 3dfx) omdat 2D-bakkers arrogant waren (pff 3d: zo'n vaart loopt dat niet). 3dfx werd de in de pan gehakt door nVidia, omdat 3dfx arrogant was geworden (wij bepalen wel welke features de mensen nog niet hoeven). Logischer wijs gaat nVidia er nu aan: ze zijn ook redelijk arrogant, als underdog is het iets makkelijker ontwikkelen (zolang je niets hebt, blijf je de underdog). En nu heeft ATi een voorsprong en komt nVidia te laat met de nieuwe kampioen.

Tuurlijk het geld zit budget en mid-range, maar krijgt nVidia de tijd om het terug te verdienen? En blijven de mensen nVidia willen, nadat ze worden doodgegooid met benchmarks in de mainstraim PC-bladen die laten zien dan ATi de snellere kaart heeft...

Eigenlijk is het niet de vraag òf ATi ‘wint’, maar wanneer en wie ATi gaat beaten...
het vernieuwende is de snelheid. En aangezien de NV30 en R300 een ongeveer gelijke IPC (als je bij gpu's daarvasn spreekt) hebben, moet dit gezien de specs een snellere dan de GFFX worden.
Inderdaad.
Specs zeggen echter ook niet alles, dat konden we wel merken bij de Matrox Parhelia. Technisch gezien was die superieur, maar in games was het niet de beste kaart.
Fout
Spect's zeggen heel veel maar niet alles

Kwa rauwe spect is de Parhilia al veel minder
De GPU heeft maar 4 ipv 8pipes ('n rauwe Spect.)
De GPU heeft 'n te lage Clock tov concurentie (rauwe Spect)
De PArhilia heeft wel veel rauwe mem bandbreedte.

Maar mist de Memory efficientie technieken(Tecniek)
dus totaal nooit superieur want dan moet je met de concurentie meegaan en een matrox variant van HyperZ/LMA implementeren. en die wordt zwaar gemist

En als je bandbreedte hebt moet je GPU het ook kunnen benutten.

De R300 en nV30 ontlopen mekaar niet veel kwa rauwe Spects en ook niet op Technische innovatie.
Verschil is er wel maar niet zo extreem tov de Parhilea.

Dan spelen nog mee: Drivers, markt penetratie/aandeel, dus Game ontwikkelaars ondersteuning.
Dat is de keerzijde van de medaille :)
Enerzijds is het goed voor de gebruiker dat Ati en Nvidia strijden voor de eerste plaats, zo worden de producten goedkoper in een snellere tijd maar bijgevolg komt daarbij dat ze de eerste willen blijven en zo snel mogelijk hun nieuwe paradepaardje op de markt willen krijgen, ook al zijn die niet baanbrekend vernieuwend :)
Dit zal dus betekenen dat nVidia en Ati ongeveer tegelijk met een kaart op de markt komen. De enige manier om dan snel mensen te winnen is goede prijzen. Das mooi. Ook kunnen we dan eindelijk is kaarten vergelijken die ongeveer even oud zijn
Dit is gewoon weer een voorbeeld dat de gpu's elkaar steeds en steeds sneller opvolgen.

Wat zijn nou de echt vernieuwende technieken?
Yep, Ati en Nvidia zitten elkaar nu goed op de hielen. Dat is alleen maar gunstig voor de consument. Waarschijnlijk gaan de nieuwe GPU's elkaar sneller opvolgen en worden ze (sneller) goedkoper.
Ook ben je er zo min of meer van verzekerd dat je voor niet al te veel geld een vga kaart koopt die de dan courante games netjes afwerken. Het punt nu vaak is dat mensen een GfRagePro MX ding kopen en dan later balen omdat Doom III niet echt vloeiend gaat. Ook de low-end markt zal op deze manier hoger gaan liggen qua performance voor hetzelfde geld.

Daarnaast, vernieuwing.. tjah, gisteren op de HCC zie ik dat een XP2400+ voor zo'n 225e over de toonbank gaat.. vorig jaar kocht ik mijn XP1600+ voor 270fl. Zo'n 130 euro dus. Een XP 1800+ kost nu zo'n 99 euro, dus om nou te zeggen dat er in een jaar tijd veel veranderd is? Njah, allemaal nieuwe termen en releases, maar 'under the hood' veranderd er maar weinig.

Het zou leuk zijn als we eindigen met een gezonde concurrentie tussen Ati en nVidia (en intel en amd). Magoed, we wachten het wel af :)
Dat valt nog wel reuze mee.
De 9700 Pro is al weer een heel tijdje op de markt. Als die 9900 in februari op de markt komt is dat 6 maand na de 9700 Pro.
Dat is dus helemaal niet steeds sneller en sneller.

Maar doordat de GeforceFX ook pas 5 maand na de 9700 pro op de markt komt LIJKT het dat ze elkaar steeds sneller opvolgen.
Verniewende Technieken?
Betreft next gen GPU's

Nou DX9.x Veretex/Pixel Shaders en die zijn dus nog meer flexibler dan de DX8.1 te programmeren.

Dus meer/makkelijker complexere effecten te programmeren met Cg/RenderMonkey.
zou de Radeon 9900 zelfs in de nieuwste DirectX 9.1-games voor hoge framerates gaanzorgen.
Helaas moeten we nog minstens een jaar wachten totdat de eerste DirectX 9 games zullen verschijnen. Doom3 zal een van de eerste games zijn die wat van de geavanceerde features van DirecX 8 gebruikt.
Doom3 is geschreven voor openGL(2)
So? Gebruikt het dan geen DX8 meer?

Alleen D3D valt af, maar de FEATURES niet.
Alleen D3D valt af? Het artikel gaat over 3D kaarten, lijkt me dat het dan juist gaat om D3D en niet of DoomIII je geluidskaart via directX aanstuurt.
Oei... In het topic op GOT over de GeforceFX schreef ik donderdag 21 november dit:
Natuurlijk zal er altijd van stuivertje gewisseld worden, maar het zal wel heel zuur zijn voor nVidia als ATi in het eerste kwartaal van 2003 (als GeForceFX ook gelanceerd wordt) ook de overstap maakt naar DDRII in combinatie met R350. Al dat geld dat ze hebben geinvesteerd zal dan voor 'niets' blijken te zijn, omdat ze bij de launch dan niet eens de snelste kaart kunnen leveren... nVidia flikte dit kunstje ook bij ATi toen ze de Radeon en de Radeon8500 uitbrachten.
Komt dus wel akelig dicht in de buurt bij de waarheid. nVidia lanceert de nieuwe kaart en op moment van launch zijn ze dus niet de snelste... Volgens mij is dat nVidia nog niet echt eerder overkomen.

Als je uitgaat van de performance percentages die nVidia liet zien dan is Radeon9700 (325/620) klok voor klok sneller dan GeForceFX (500/1000). Zo veel ontloopt de performance van een GeforceFX en een Radeon9700Pro elkaar niet. En nu ATi dan ook nog eens met hogere kloksnelheden en meer functies komt, ben ik bang dat GeforceFX wel eens overrompeld zou kunnen worden door de R350.

Maar goed, eerst zien dan geloven natuurlijk. Maar een launch in Februari zou in ieder geval kloppen met het tijdschema van ATi dat in de eerste helft van het jaar 2003 ook aankondigingen zullen worden gedaan voor R400 en R500.
Als je uitgaat van de performance percentages die nVidia liet zien dan is Radeon9700 (325/620) klok voor klok sneller dan GeForceFX (500/1000).
Ten eerst zijn er alleen nog maar benchmarks uitgegeven door NVIDIA (de rest van de wereld heeft een NDA). Dus waar jij die nonsens vandaan haalt is me even een raadsel.

Als we dan even naar de benchmarks van NVIDIA kijken dan is de GeForceFX zo'n 30% sneller dan Radeon9700 Pro. Verder kan GeForceFX 16 textures per klok verwerken tegen 8 van Radeon9700 Pro. Hoe dan ook is GeForceFX vet sneller dan Radeon9700 Pro.

Voordat er onafhankelijke benchmarks uit zijn zou ik dergelijke uitspraken maar voor me houden.
woooow, da's toch een grote zak poep die je net openscheurt....

16 textures per klok, leg jij mij dan maar es uit hoe hij daar aan komt?
hij heeft 8 pipelines, met 1 texture unit per pipeline...
dus dat is 8 textures per klok
je bedoelt 16 textures per pass, maar een pass is meer dan een klok...
en 16 textures per pass heeft ATi ook al...
Ten eerst zijn er alleen nog maar benchmarks uitgegeven door NVIDIA (de rest van de wereld heeft een NDA). Dus waar jij die nonsens vandaan haalt is me even een raadsel.
Als we dan even naar de benchmarks van NVIDIA kijken dan is de GeForceFX zo'n 30% sneller dan Radeon9700 Pro.
Ok, dus waar de radeon 100fps haalt, haalt een Gf-FX er 130, de radeon doet dat op 325Mhz, de Gf-FX op 500...

Dat doet mij uitrekenen dat de radeon klok voor klok sneller is hoor (500Mhz is namelijk meer dan 50% sneller dan 325 voor de core en het geheugen zelfs 60%! Toch haalt hij "maar" 30% meer frames per seconde). :).
Dus waar jij die nonsens vandaan haalt is me even een raadsel.
Je mag de volgende keer ook gewoon aangeven dat je de term "klok voor klok" niet snapt hoor :P
ik had misschien beter kunnen zeggen workstation kaartjes, niet te duur, makkelijk te integreren op moederborden enz. maar voor gelopen op 3d gebied op deze manier is voor het eerst voor ATi.

juist omdat de 2d kwaliteit zo goed was/is hebben ze op workstation gebied altijd voorgelopen op Nvidia.
Nvidia staat ook een beetje verstelt van ATi, opzich wel logisch. niemand had ooit verwacht dat een merk wat zich alleenmaar besig hield met budgetkaartjes ooit zover zou komen als nu.

en toch vraag ik me af hoe dit gaat lopen, wat Nvidia's antwoord zal zijn op de Radeon 9900. en eigenlijk wat dan de naam zal zijn voor de R400 en R500 veel dichterbij de 10000 kommie niet en vanaf daar word het lastiger uitspreken :P
Radeon10700Pro lijkt me inderdaad onuitspreekbaar worden. Maar uhm... ATi is bezitter van de merknaam "Omen". Dus het zou leuk zijn (+ een extra steek onder water naar nVidia) als ATi de R400 om zou omdopen naar "Omen". ;) Velen dachten per slot van rekening dat NV30 "Omen" zou gaan heten.

On-topic. Veel mensen beginnen over het feit dat er nog lang geen DX9 games zijn. Dat klopt natuurlijk. Maar deze kaartjes zullen zich vooral moeten bewijzen in hedendaagse spellen. Games als Morrowind vragen veel van de GPUs die nu op de markt zijn. Vooral als je allerlei extra opties als AA en AF aan wilt zetten. En daar tonen dit soort nieuwe kaarten juist hun kracht.
Er zijn games die veel van een GPU vragen, met name met AA en AF.
Maar Morrowind behoort daar absoluut NIET toe. Morrowind is volledig CPU begrensd.
Hmm.. ik weet dat Morrowind sterk CPU afhankelijk is, maar ik heb sinds gisteren een Radeon9700Pro in m'n bak hangen (had eerst een 8500) en nu haal ik dezelfde/iets hogere framerates, terwijl ik nu wel 4xAA en 16xAF aan heb staan. Dit moest ik niet proberen met m'n 8500.

M'n CPU is dus niet veranderd (doe ik later vandaag :) ), maar ik kan nu wel met meer eyecandy spelen. Dus volgens mij is dit dan toch echt de verdienste van de snellere GPU? Of zie ik dit nou verkeerd? :?
Nu wel met AA en AF kunnen spelen komt wellicht door je videokaart. Maar dat komt dus niet doordat Morrowind veel vraagt van de GPU, maar doordat AA en AF veel vraagt van de GPU. Onafhankelijk van wat voor game je speelt.

Als je specifiek Morrowind noemt ga ik er vanuit dat je zaken bedoeld waar Morrowind ook echt verschillend of veeleisender is dan andere games. En dan zie je dat Morrowind alleen maar een high-end kaart wil hebben voor Pixel shaders, en dat voor de rest een mid-end tot low-end kaart het allemaal af kan.
Bij een gelijke CPU (bv 2Ghz) presteert Morrowind net zo goed op een 8500 als op een 7500. (zonder AA dan) Dan kan je imo niet zeggen dat Morrowind veel van een GPU vergt.

Met 4xAA en 16xAF aan is er volgens mij geen enkele game die nog CPU begrensd is.
ATI budget kaarten :?
Zou je mischien, voordat je dergelijke opmerkingen plaatst eerst even willen checken?
Ati is al langer met videokaarten bezig dan nvidia, en hebben zich ook veel gericht op de high end profesional cards, en de laatste paar jaar met name op mainstraim computers voor totaal oplossingen... zie de all in wonder series, die hebben ze al draaien sinds de tnt kaarten, en ten tijde van de tnt klokte ATI nvidia er ook al keihard uit, toendertijd met de rage 128 serie, die trouwens ook heerlijk overclockbaar waren.
Nvidia stelt pas echt wat voor sinds de geforce kaarten.
Ik heb bijde merken in mijn pc gehad, en heb niet echt een duidelijke voorkeur, maar toch moet ik zeggen dat ati, zeker in 2d een duidelijke voorsprong heeft, zie het verschil maar eens op je eigen monitor.
ik wil niet zeggen dat nvidia alles is :), elke keer als ik weer nieuwe detenator drivers install werkt iets wel niet meer optimaal. en dat opzicht geef ben ik het volledig met je eens ;)
Toch altijd fantastisch hoe iedereen, na 1 of 2 geruchten alweer zijn conlusies heeft getrokken.
Er zijn nog geen eens benchmarks van de NV30 en toch weten mensen alweer zeker dat de R350 beter wordt.

Heerlijk jongens, niets zo fijn als een levendige fantasie.
dat is net als die mensen die beweren dat de NV30(GeforceFX) beter gaat worden dan de Radeon 9700PRO dat weet nl ook niemand, maar het lijkt alsof er al heel wat mensen van overtuigd zijn, ik moet 't nogmaar zien... waar blijven die benchmarks eigenlijk? ;)
* 786562 DaneelHet blijft stuivertje wisselen en met een beetje mazzel hebben wij er als consument baat bij. De prijzen van snelle grafix-cards dalen sneller dan eerst de bedoeling was.
Het is juist goed dat nVidia een concurrent als Ati heeft en omgekeerd. Laat de beste zich maar bewijzen!
Dit zijn geen geruchten, maar specs die door ATi en nVidia zelf zijn aangevoerd. Ze zijn dus niet aan komen waaien. De aangekondigde specs komen geloofwaardig over. Zowel nVidia als ATi heeft veel geld in R&D gestopt en de dingen die ze beloven zijn allemaal mogelijk. De 9900 is vergelijkbaar opgebouwd als de 9700. Er kunnen dus prima schattingen over de performance gemaakt worden (schattingen die ik hier overigens nergens zie).

In de specs is de R350 beter dan de NV30, maar of dat in het echt ook zo is (drivers etc.) zullen we nog zien.
Daar heb je idd gelijk in, niets is zo gezond als een goede concurrentie strijd, maar daardoor maken ze wel in een steeds rapper tempo nieuwe kaarten, wat ons weer niet zo blij maakt, omdat onze hardware dan snel verouderd is. Ik vind dat Ati en Nvidia na de R350 en de NV30 het werk maar eventjes voor een jaar moeten laten liggen, zodat gamedevelopers de kans krijgen om vol gebruik te maken van de functies van zowel Directx 8.1 als van ge grafische kaarten. Want tegen de tijd dat Doom 3 uitkomt is er waarschijnlijk ook al Directx 9.0, en komen dan pas de spellen uit die volledig gebruik maken van Directx 8.1. Ook vind ik dat Nvidia er niet goed aan doet om het koelelement zo groot te maken, waardoor je zeker (zoals op het plaatje te zien is) het eerste PCI-slot verliest. En om dit probleem weer op te lossen zouden alle moederbord fabrikanten dan weer de afstand tussen het AGP en PCI-slot moeten vergroten, waardoor je weer grotere moederborden krijgt, met alle gevolgen van dien. Nvidia, wees slim en maak geen fout met de NV 30, want het kost je heel veel klanten, vooral de klanten die nog afwachten op het aankomende grafische geweld, en dat zij er (zo blijkt uit veel Poll's) heel veel.
niets is zo gezond als een goede concurrentie strijd
Gezonde concurrentie, met TWEE aanbieders :?
Ik vind dat Ati en Nvidia na de R350 en de NV30 het werk maar eventjes voor een jaar moeten laten liggen
:? Gaan ze allebei failliet.
zodat gamedevelopers de kans krijgen om vol gebruik te maken van de functies van zowel Directx 8.1 als van ge grafische kaarten
Dat kan niet als ATi en nVidia doorwerken? Gamedevelopers moeten gewoon een mooi spel maken, dat maakt totaal niet uit wat ze er voor inzetten (als de doelgroep het maar kan spelen/draaien op hun PC/Console.
waardoor je zeker [...] het eerste PCI-slot verliest
Dat ding moet je toch niet gebruiken (voorkom je veel potentiële problemen).
Nvidia, wees slim en maak geen fout met de NV 30, want het kost je heel veel klanten, vooral de klanten die nog afwachten op het aankomende grafische geweld, en dat zij er (zo blijkt uit veel Poll's) heel veel.
:?
Geld zit (zoals al HEEL vaak gezegd) niet in de High-End, maar in de budget en midrange, dus of die highkaart nou een beetje groter is of niet... Bij high-end telt eigenlijk alleen de framerate (en de eyecandy bij die fps).

Dus het NIET hebben van een High-End kaart kost nVidia veel meer klanten, al zijn er nog zat mensen die gewoon een 'GeForce' moeten hebben (die mensen zijn gewoon altijd met andere dingen bezig dan met PC-componenten vergelijken, maar hebben wel veel geld te besteden).

Op dit item kan niet meer gereageerd worden.