Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 119 reacties
Bron: FiringSquad, submitter: watercool

FiringSquad heeft op Comdex 2002 bij ATi het een en ander los weten te peuteren over de opvolger van de Radeon 9700 Pro, met de codenaamd R350: de nieuwe GPU zal waarschijnlijk als Radeon 9900 door het leven gaan. Deze chip is ATi's antwoord op de GeForceFX van nVidia. De Radeon 9900 heeft alles aan boord om de GeForceFX te verslaan. Zo gaat deze op een hogere kloksnelheid draaien dan nVidia's wapen in de strijd om de performancebeker. Met kloksnelheden van boven de 500MHz, efficiënte pipelines, ondersteuning voor DDRII-geheugen en HyperZ III-technologie zou de Radeon 9900 zelfs in de nieuwste DirectX 9.1-games voor hoge framerates gaan zorgen. De Radeon 9900 wordt verwacht in februari:

ATi Radeon 9700 GPU Finally, it will be interesting to see what ATI is up to come February. Word on the street is that ATI's follow-up to RADEON 9700 PRO (codenamed R350) has taped out recently and will be marketed under the name RADEON 9900. We've heard conflicting reports on its manufacturing process, we naturally assumed it would be a 0.13-micron part, but we've also been informed by another source that the design is 0.15-micron.
Moderatie-faq Wijzig weergave

Reacties (119)

Kijk nou toch. De ene na de andere nieuwe and interessante videokaart. en wie profiteerd van dit overgrote (high end) aanbod? iedereen. high end zakt in prijs naar medium end. en medium end zakt in prijs naar low end. Prachtig want zo heb je al snel een hele markt die pixel shaders ondersteunen zodat game developpers daar eindelijk eens rustig van gebruik kunnen gaan maken zonder de low end in de vingers te snijden.
Game developers letten natuurlijk niet op low end. Bij het maken van een spel kijken ze naar hoeveel tijd ze ongeveer nodig hebben totdat het spel klaar is en welke functies tegen die tijd dan gangbaar zijn. Wat hebben ze eraan om een spel te maken dat ook low end fatsoenlijk kan draaien?? Dan snijden ze zich in de vingers omdat dan hun spel tov andere spellen outdated zal zijn.
Onzin, ze nemen low-end echt wel mee in de schaalbaarheid van hun spellen. Veel spellen zullen in de toekomst perfect draaien op low-end (whatever low-end tegen die tijd is, maw de high-end van nu), maar de eye-candy als special is de beloning van de high-end. AA ed zullen daar gebruikt kunnen worden, pixelshaders, etc.... maar low-end is voor hun zeker wel intressant.

Hoe schaalbaarder, hoe meer potentiele kopers, hoe meer winst.
Sorry, maar hier moet ik even op reageren...

Die hele redenatie van "meer dan 24 fps is niet nodig, want een film heeft dat ook niet" is namelijk al een hele tijd geleden afgedaan als onzin. Ik zal de bewijzen even kort herhalen:
1. testen heeft duidelijk opgeleverd dat een mens met veel gemak het verschil van 50 of 80 FPS opmerkt. zelfs tussen 80 en 120 is nog wel een verschil op te merken voor mensen met goede ogen
2. TV/Film werkt volstrekt anders dan computer generated graphics. Een TV/filmopname is een "foto" van een scène, waarin de beweging ook vastgelegd wordt. Als je een TV/film stil zet, zie je dat 1 beeldje heel vaag is. Een bewegende arm wordt uitgesmeerd. Dit lijkt op de "motion blur" techniek die 3dfx met de v5000 wilde namaken. Dit zorgt er voor dat 24FPS vloeiend lijkt.
Als je deze motion blur vergelijkt met een beeld uit een first person shooter, dan zie je dat bij zo'n FPS elk afzonderlijk beeldje berekend wordt en dat dat een scherp beeld is. Een arm die je daar beweegt komt haarscherp, als een stilstaand object naar voren. Daar heb je veel meer beeldjes voor nodig om een vloeiend animatie-effect te creëren.

Conclusie van dit alles is dat voor computergames je minimaal rond de 80 FPS zal moeten draaien, wil je iets als "vloeiend" ervaren, alles minder dan dat wordt minder vloeiend, en minder speelbaar. Een shooter met een FPS van 25-30 zal het gros van de serieuze gamers afdoen als volstrekt onspeelbaar.
Welk nieuw spel kan je tegenwoordig draaien op een low-end videokaart? Neem bijvoorbeeld een Pentium 4 / GeForce2 MX. Daar kan je niet eens fatsoenlijk Medal of Honor op draaien. En dan heb ik het nog niet eens over een resolutie van 1024x768. Met low-end noem je ook geintegreerde videokaarten, zoals de nForce. Met een gemiddelde AthlonXP (1800+ - 2000+) en een nForce 2 haal je in Unreal Tournament 2003 dan ook niet meer dan 30FPS, zeker niet meer dan 20FPS in Comanche 4 en op meer dan 35FPS in Serious Sam 2 hoef je ook niet te wachten. Dit framerates die je non-acceptable mag noemen.
Voor een ieder die online of lan speelt, maar deze spellen worden door zoveel mensen gewoon in hun uppie gespeeld, dat die 30 en 35 fps vaak nog speelbaar zijn.

(En ik moet de batterijen van mijn keyboard vervangen, wat een fouten. Of minder drinken en vroeger slapen.)
Je moet niet naar een stilgezette film kijken, maar naar de originele film... vraag maar 's naar in een bios... als je aardig bent mag dat wel.

Dan zie je dat de losse framepjes behoorlijk scherp zijn hoor.
Hoe scherp de losse frames van een film zijn is een kwestie van de gebruikte sluitersnelheid bij de opname. Een mooi voorbeeld is het openingsgevecht van Gladiator,die is duidelijk met een hoge sluitersnelheid geschoten, je ziet zelfs de aarde die in het rond vliegt nog haarscherp.
Idd. Mijn pa pas een GF4 MX440 in zijn PIII-500mhz.
MOHAA draait 20fps+ , hij is tevreden.

Je heb dus meer aan een iets betere VGA-kaart dan een relatief snelle CPU en een brakke VGA-kaart.
Reactie op silentsnow:
Ja precies! En ik kan nu echt niet meer zonder een vaatwasser en zonder wasdroger en auto en zo :Z
Maar ja, 4 jaar geleden allemaal nog wel! See the point? 30 fps is hartstikke leuk om te spelen voor de meeste mensen; niet iedereen is een fragger.
Serieuse Gamers :? Die spelen geen stompzinnige shooters. Die spelen games met meer diepte....

Shooters zijn voor de puisterige pubers, met teveel testoron in hun aderen. Die alles VET vinden als het maar snel is.

Als iedereen minimaal 60Ffs zou moeten draaien, kan ruim 80% van alle games wel van de pc gehaald worden. De meeste mensen hebben nml. geen 300+ euro over voor zo'n supersnelle FPS-fabriek. Laat staan de overige poen voor de CPU/mobo/geheugen etc...

Waar jij het over hebt is optimale speelbaarheid, dat wil elke diehard gamer. Maar zoveel die-hard gamers zijn er niet. Wel recreatieve gebruikers die af en toe es willen vlammen. En die hebben meer oog voor het spel dan de FPS, de meeste weten niet eens waar je het over hebt. Het spel is goed of het is bagger, vinden ze veel belangrijker.

Het gros van de serieuze (foute term, zeg maar die-hard) gamer ? Je bedoelt die MIN 5% van de NL?

Zijn er nog 95% die met minder genoegen nemen, nee sterker nog er waarschijnlijk nog meer plezier aan beleven ook. Ze hoeven zich niet druk te maken over overclocken/benchmarks en systeemcrashes bijv....

My 0.02c
Je hebt gelijk, het beeld ziet er veel rustiger uit op een hogere framerate, maar vanaf ca.24 fps is het zeer goed te spelen (verschilt natuurlijk per persoon) Mensen die niet te veel geld hebben kunnen hiermee nog zeken van hun spellen genieten.
Spellen hebben geen motion blurr en filmcameras draaien geen 180° in <1s.
Iemand met 100fps constant fragged veel beter dan iemand met 24fps constant
Dat hoeft natuurlijk helemaal niet zo te zijn, dit kan ook best een constante framerate zijn.
Hier moet ik dan ook even op reageren aangezien jouw argumenten met het grootste gemak weerlegd kunnen worden.

1) Een mens kan ook het verschil met 200 fps waarnemen. Moeten we dan alle spellen maar op 200 fps spelen?
Waar leg je dan een grens? 25fps is een bewezen grens die acceptabel is. Elke andere waarde is compleet willekeurig gekozen. Moet je dan 50 nemen of 60 of 80? Niemand die daar antwoord op kan geven.
Ergens moet je een waarde kiezen, maar de argumenten voor 80 zijn niets beter dan voor 60 of 100.

2) Als je een animatie film stop zet heb je GEEN vage beelden. Neem bv Titan AE of iets dergelijks.
En toch ziet die film er ook gewoon vloeiend uit. Dat motion blur effect mag dan meespelen bij gewone speelfilms, het verklaart niet waarom animatiefilms er gewoon vloeiend uitzien.

Conclusie hiervan: Je hebt geen enkel argument meer om perse 80 fps te willen hebben voor computergames.

Morrowind met 25fps wordt door iedereen ervaren als compleet vloeiend. Sterker, 20 fps wordt al ervaren als vloeiend. Pas als mensen de framerate counter aan gaan zetten willen ze ineens hogere waarden bereiken.
Evenzo voor flightsims
En waarom is het op het scherm niet meer scherp?

Gebeurd er ineens iets met de lichstralen waardoor motion blurring verschijnt? Dat zou wel een heel bijzonder natuurkundige verschijnsel zijn.

Een dia is zeker ook niet scherp volgens jou?
95% van alle spellen draaien geen 180 graden in minder dan een seconde.

Sinds wanneer zijn die paar die-hard fraggers de norm waar het spellen in het algemeen betreft?
reactie op mjtdevries en anderen:

Ik krijg een deja-vu gevoel van een discussie, die pak-hem-beet 4 jaar geleden op een 3dfx newsgroup tegen kwam. Als je mij niet gelooft, lees dan daar maar eens.

om je punten nog even te behandelen:
- boven de 120FPS kan vrijwel niemand meer verschil in framerate waarnemen
- een film in een cinema draait op 48 frames per seconde (elk frame wordt 2x afgespeeld) met TV's is dit ook het geval, dit draagt bij aan het gevoel van een vloeiende beweging.
- tekenfilms op 24FPS lopen NIET vloeiend, afgezien van het effect van je TV, die werkt met een "uitdoof"- effect, waarbij het vorige beeldje vervaagt. Een computermonitor heeft dit effect niet/nauwelijks. Als je een tekenfilm op een moderne TV of een monitor ziet, en je bekijkt een "panning-scene" dan loopt dat absoluut schokkerig.
- bij animaties en computergraphics in bioscoopfilms wordt de motion-blur (het vervaag-effect dat optreedt met normale film) na afloop toegevoegd. George Lucas kwam dit probleem tegen toen hij de computer-generates scenes van zijn vernieuwde starwars trilogie zag. Dit liep schokkerig en dit was hun oplossing
- voor first-person shooters is een hoge framerate essentieel, omdat anders bij een snelle rotatie-beweging niet genoeg frames te zien zijn om nauwkeurig te mikken. Voor een schaakspelletje is het op zich minder van belang, maar dat was mijn punt dus niet.

Tenslotte: mij hoef je niet te geloven (al zou je dat veel tijd besparen) maar kijk dan tenminste even met google in de diverse 3dfx.* groups, rond 97/98 heeft er over dit onderwerp veel discussie plaatsgevonden en zijn al je "argumenten" al weerlegt, voor je ze verzonnen had.

Dit is tevens mijn laatste reactie op dit onderwerp, het is namelijk off-topic en een herhaling van al veel langer bekende feiten.
Discussies waarbij slechte argumenten gebruikt worden hebben heel vaak een deja vu gevoel

Als vrijwel niemand boven de 120 FPS verschil ziet, waarom zou je dan 80FPS als maatstaf nemen?
Alleen maar verder bewijs dat die 80FPS compleet willekeurig gekozen is. (3DFX koos voor 60FPS. Ook al compleet willekeurig)
(Onderzoek van Nasa geeft 200, maar dat gaat dat niet over of iets vloeiend er uit ziet, maar of je oog het nog waar kan nemen)

goh, toch raar dan dat ik nog NOOIT iemand heb horen klagen dat FF of Titan AE of iets dergelijks niet vloeiend zou lopen, maar schokkerig. (Of de CG scenes van Star Wars, waar ook geen motion blur ingebouwbt is)
Maar laat je vooral niet afleiden door de praktijk.

Zet een scene van Titan AE stil en je ziet dat er GEEN motion blur in zit.
Dat wordt ALLEEN gebruikt bij die scenes waarbij een object EXTREEM dicht langs de camera gaat.
Bv een ruimtevaartuig dat op een paar cm langs de camera gaat. Bij vaartuigen die net zo snel over het scherm vliegen, maar dan op een paar meter van de camera positie wordt geen motion blur gebruikt. Gebruik wederom bv Titan AE als voorbeeld.

3DFX ging uit van 60 FPS als ideaal. Dus waarom zou ik in die 3DFX discussies gaan kijken waarom je 80FPS zou moeten nemen, als je vervolgens al aangeeft dat je eigenlijk 120FPS moet gebruiken?

Mijn argumenten heb je zeker niet weerlegd, je hebt ze alleen maar verder bevestigd.
Ik ga er verder ook niet op reageren aangezien het OT is, maar ik wil hiermee maar aangeven dat er verrekte goede redenenen zijn waarom deze discussie nog steeds doorgaat. En dat gebeurt dus met ALLE discussies waarbij mensen limieten of optimale waarden stellen die compleet willekeurig gekozen zijn.
Age of Mytholoy, toch een spel dat grafisch gezien in zijn genre het beste biedt, loopt op een PIII 800 en Gefore2 MX zelfs op hoge resolutie net zo goed als als op een AMD1800 met GeforceTi4200. Met die schietspellen valt 't ook allemaal wel mee. Mischien dat DOOM III die nieuwe kaarten ECHT nodig gaat maken.
PIII550, geforce 2mx. NWN; 30 fps, UT2k3; 25 fps en hoger. Je moet alleen wel een beetje eye-candy tweaken cq resolutie op 800x600 zetten.

En alles boven de 24 fps is acceptabel; anders zou je ook geen film of tv kunnen kijken. 't is wel duidelijk dat jij je tech niet zo goed doorhebt als je denkt.
En alles boven de 24 fps is acceptabel; anders zou je ook geen film of tv kunnen kijken. 't is wel duidelijk dat jij je tech niet zo goed doorhebt als je denkt.
Het is jammer dat er altijd gebruikers zijn die kewtsende op flamerige opmerkingen maken tegen andere users.

Als je het hebt over 30FPS, 40FPS of zelfs 50FPS, dan heb je het over gemiddelden. Als je UT2K3 me 25FPS draait (gemiddeld dus), dan zijn er dus bepaalde momenten dat je rates van 20 of zelfs 15FPS hebt. Andere momenten heb je 30FPS. Je weet zelf ook dondersgoed dat 30FPS echt het minimum is, alles daaronder is onacceptable. Ik wil je daarbij op de FAQ wijzen van GoT.
Ja, op de film zelf is het wel scherp, maar op het scherm niet, en daar kijken we naar.
Thugbear heeft zeker gelijk; er zijn namelijk veel, veel meer gamers met een lowend machine dan mensen met een uberninja-bak. Een bedrijf dat dat segment vergeet, snijdt zichzelf in de vingers. Kijk bijvoorbeeld naar iD Software; maakt gebruik van de high end functies, maar zelf een bedrijf dat specifiek voor de high-end produceert zorgt er donders goed voor dat de engine scalable is, en er dus ook mensen met oude(re) machines mee kunnen spelen. De mensen met nu de geforce 4/9700 en straks een FX/9900 is ongeveer de top 5% van de markt.

Daarnaast is het ook een feit dat je dit soort hardware ook alleen nodig hebt voor 3d...kijk naar het meest verkochte pc spel aller tijden: the Sims. Daar heb je echt geen nvidiaFX voor te hebben. Ook niet voor iets als Civilisation III.
Niet goed dat het zo hard gaat.
De kosten om een nieuwe GPU zijn enorm hoog.
Chipfabrikanten halen het geld voor deze nieuwe GPU's uit de verkoop van eerdere chips.
Ofwel, als ze elke keer te snel komen met een nieuwe chip is er te weinig tijd om die kosten elke keer weer te dekken met de verkoop vaan oudere chips....
Inderdaad, als dit lang zo door gaat, dan gaat er gegarandeerd één naar de knoppen.

Historisch gezien is dat nVidia.
Vroeger werd 'de 2D' verslagen door 3Dfx (later 3dfx) omdat 2D-bakkers arrogant waren (pff 3d: zo'n vaart loopt dat niet). 3dfx werd de in de pan gehakt door nVidia, omdat 3dfx arrogant was geworden (wij bepalen wel welke features de mensen nog niet hoeven). Logischer wijs gaat nVidia er nu aan: ze zijn ook redelijk arrogant, als underdog is het iets makkelijker ontwikkelen (zolang je niets hebt, blijf je de underdog). En nu heeft ATi een voorsprong en komt nVidia te laat met de nieuwe kampioen.

Tuurlijk het geld zit budget en mid-range, maar krijgt nVidia de tijd om het terug te verdienen? En blijven de mensen nVidia willen, nadat ze worden doodgegooid met benchmarks in de mainstraim PC-bladen die laten zien dan ATi de snellere kaart heeft...

Eigenlijk is het niet de vraag òf ATi ‘wint’, maar wanneer en wie ATi gaat beaten...
het vernieuwende is de snelheid. En aangezien de NV30 en R300 een ongeveer gelijke IPC (als je bij gpu's daarvasn spreekt) hebben, moet dit gezien de specs een snellere dan de GFFX worden.
Inderdaad.
Specs zeggen echter ook niet alles, dat konden we wel merken bij de Matrox Parhelia. Technisch gezien was die superieur, maar in games was het niet de beste kaart.
Fout
Spect's zeggen heel veel maar niet alles

Kwa rauwe spect is de Parhilia al veel minder
De GPU heeft maar 4 ipv 8pipes ('n rauwe Spect.)
De GPU heeft 'n te lage Clock tov concurentie (rauwe Spect)
De PArhilia heeft wel veel rauwe mem bandbreedte.

Maar mist de Memory efficientie technieken(Tecniek)
dus totaal nooit superieur want dan moet je met de concurentie meegaan en een matrox variant van HyperZ/LMA implementeren. en die wordt zwaar gemist

En als je bandbreedte hebt moet je GPU het ook kunnen benutten.

De R300 en nV30 ontlopen mekaar niet veel kwa rauwe Spects en ook niet op Technische innovatie.
Verschil is er wel maar niet zo extreem tov de Parhilea.

Dan spelen nog mee: Drivers, markt penetratie/aandeel, dus Game ontwikkelaars ondersteuning.
Dat is de keerzijde van de medaille :)
Enerzijds is het goed voor de gebruiker dat Ati en Nvidia strijden voor de eerste plaats, zo worden de producten goedkoper in een snellere tijd maar bijgevolg komt daarbij dat ze de eerste willen blijven en zo snel mogelijk hun nieuwe paradepaardje op de markt willen krijgen, ook al zijn die niet baanbrekend vernieuwend :)
Dit zal dus betekenen dat nVidia en Ati ongeveer tegelijk met een kaart op de markt komen. De enige manier om dan snel mensen te winnen is goede prijzen. Das mooi. Ook kunnen we dan eindelijk is kaarten vergelijken die ongeveer even oud zijn
Dit is gewoon weer een voorbeeld dat de gpu's elkaar steeds en steeds sneller opvolgen.

Wat zijn nou de echt vernieuwende technieken?
Yep, Ati en Nvidia zitten elkaar nu goed op de hielen. Dat is alleen maar gunstig voor de consument. Waarschijnlijk gaan de nieuwe GPU's elkaar sneller opvolgen en worden ze (sneller) goedkoper.
Ook ben je er zo min of meer van verzekerd dat je voor niet al te veel geld een vga kaart koopt die de dan courante games netjes afwerken. Het punt nu vaak is dat mensen een GfRagePro MX ding kopen en dan later balen omdat Doom III niet echt vloeiend gaat. Ook de low-end markt zal op deze manier hoger gaan liggen qua performance voor hetzelfde geld.

Daarnaast, vernieuwing.. tjah, gisteren op de HCC zie ik dat een XP2400+ voor zo'n 225e over de toonbank gaat.. vorig jaar kocht ik mijn XP1600+ voor 270fl. Zo'n 130 euro dus. Een XP 1800+ kost nu zo'n 99 euro, dus om nou te zeggen dat er in een jaar tijd veel veranderd is? Njah, allemaal nieuwe termen en releases, maar 'under the hood' veranderd er maar weinig.

Het zou leuk zijn als we eindigen met een gezonde concurrentie tussen Ati en nVidia (en intel en amd). Magoed, we wachten het wel af :)
Dat valt nog wel reuze mee.
De 9700 Pro is al weer een heel tijdje op de markt. Als die 9900 in februari op de markt komt is dat 6 maand na de 9700 Pro.
Dat is dus helemaal niet steeds sneller en sneller.

Maar doordat de GeforceFX ook pas 5 maand na de 9700 pro op de markt komt LIJKT het dat ze elkaar steeds sneller opvolgen.
Verniewende Technieken?
Betreft next gen GPU's

Nou DX9.x Veretex/Pixel Shaders en die zijn dus nog meer flexibler dan de DX8.1 te programmeren.

Dus meer/makkelijker complexere effecten te programmeren met Cg/RenderMonkey.
zou de Radeon 9900 zelfs in de nieuwste DirectX 9.1-games voor hoge framerates gaanzorgen.
Helaas moeten we nog minstens een jaar wachten totdat de eerste DirectX 9 games zullen verschijnen. Doom3 zal een van de eerste games zijn die wat van de geavanceerde features van DirecX 8 gebruikt.
Doom3 is geschreven voor openGL(2)
So? Gebruikt het dan geen DX8 meer?

Alleen D3D valt af, maar de FEATURES niet.
Alleen D3D valt af? Het artikel gaat over 3D kaarten, lijkt me dat het dan juist gaat om D3D en niet of DoomIII je geluidskaart via directX aanstuurt.
Waarom zit iedereen te neuzelen over dat .15 micron nauwelijks boven de 500MHz kan komen? Mensen kijk eens even naar de Pentium 4, die is gemaakt op .13 micron en haalt minstens 3000MHz.
ja, maar de P4 is lang niet zo ingewikkeld als deze videokaarten...

de pentium 4 heeft expres een 'simplistischer' design gekregen, zodat ie lekker hard kon.. vergelijk maar de performance van een P3 en een P4 met elkaar, dan zul je zien dat de P3 snell eruit de bus komt...
de snelheid van een processor is een combinatie van de IPC (zo heette 't dacht ik) en de kloksnelheid...
deICP ligt bij videokaarten zeer hoog, waardoor de kloksnelheden minder hoog zijn...
Een GPU is vele malen complexer dan een CPU. Is dus ook wat moeilijker om die zoveel sneller te maken. Plus het feit dat het wat minder ruim bemeten is wb. koeling op een videokaart... je kunt moeilijk als fabrikant standaard een 6-8 cm hoge constructie op je kaart bouwen.

edit:

mmm die reactie boven mij zag ik niet aangezien die naar 0 was gemod. Excuus.
Kzou eens willen weten of ie sneller zal zijn dan de GFFX. Hoewel, de Radeon 8500 is theoretisch ook sneller als een GF3 TI 500, maar niet in de praktijk.
Theoretisch, en in de meeste gevallen ook in de praktijk. Soms verslaat hij zelfs de GF4TI4200 nog (maar die is wel sneller).
Er zit een trend in de kaarten van ATi.

Sinds de eerste Radeon hebben ze steeds meer vorderingen gemaakt, en het hoogtepunt tot nu toe was dat de Radeon9700 een tijd lang de snelste kaart op de markt was. Dit lukte ze net niet met de Radeon8500. Ja... toen-ie de Ti500 begon in te halen kwam daar ineens de GF4-serie uit. Maar met de 9700 is het ze eindelijk gelukt om de kroon te pakken. En ik denk niet dat ATi opeens terug zal vallen en een 'tragere' kaart zal gaan uitbrengen dan de concurrent. nV doet zoiets ook niet. Alleen Matrox doet zoiets. :P
Wanneer gaat dit eens ophouden! :( Ik weer stilstand is achteruitgang, maar dit kan toch niet gezond meer zijn? Zijn er nu echt mensen die zodra er weer een nieuw chippie wordt gebakken linia recta naar de winkel hollen?
Wat mij betreft komt er elke dag een nieuwe kaart uit.
Ik vind het zelfs te langzaam sinds 3dfx er niet meer is.

Als 3dfx er nog was had Nvidia de Geforce 3 niet uitgesteld en 6 maanden daarna de geforce 4 uitgebracht in plaats van de geforce 3 ti500

En nu pas in februari 2003 zien we de nv-30 terwijl als 3dfx er was we het zouden zien in september 2001.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True