Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 74 reacties
Bron: ATi, submitter: N0stradamus

Om zijn positie als technologisch marktleider verder versterken heeft ATi vandaag de eerste videokaarten voorzien van DDR-2-geheugen gedemonsteerd. Naast een kaart met normaal DDR-2 was ook een kaart met DDR-2M te zien, een zuiniger variant van het geheugen die in samenwerking met Elpida is ontwikkeld. Wat voor chip er op de kaarten zat is niet duidelijk. De Radeon 9700 Pro is volgens ATi in principe geschikt om met DDR-2 te kunnen werken, maar of het ook daadwerkelijk ondersteund wordt valt te betwijfelen. Wellicht gaat het hier dus om de opvolger genaamd R350. Omdat ATi door heeft laten schemeren dat R350 net als de huidige Radeon 9700 core gebakken zal worden op 0,15 micron, zou het verhogen van de geheugenbandbreedte met behulp van DDR-2 of DDR-2M-chips wel eens dè manier kunnen zijn waarop R350 de R300 moet overtreffen.

Als DDR-2M op dezelfde kloksnelheid kan draaien als het DDR van de 9700 Pro, en tevens de 256 bit brede bus bewaard blijft, dan spreken we over ruim 35GB/s aan bandbreedte, dik het drievoudige van de Ti4600, en waarschijnlijk ook meer dan NV30. Het vermoeden dat DDR-2M ingezet zal worden voor de R350 lijkt ook te kloppen met de releasedate. DDR-2M wordt in de loop van volgend jaar opgevolgd door GDDR-3, en R350 moet voor die tijd al op de markt zijn om als alternatief voor de nVidia NV30 te kunnen dienen:

"ATI is a leader in adopting and defining memory technology to advance and define tomorrow's visual reality," said Joe Macri, Director of Technology, ATI Technologies Inc, and Chairman, JC42.3 DRAM Committee, JEDEC. "With the RADEON 9700 PRO, ATI demonstrated that leadership by defining the GDDR3 spec and becoming the first to ship a VPU with a high-speed 256 bit memory interface, and that leadership continues today with the first DDR-2 and DDR-2M powered graphics boards."

ATi Radeon 9700 Pro (persfoto - klein)

Lees meer over

Gerelateerde content

Alle gerelateerde content (26)
Moderatie-faq Wijzig weergave

Reacties (74)

Om zijn positie als technologisch marktleider verder versterken heeft ATi vandaag de eerste videokaart voorzien van DDR-2-geheugen gedemonsteerd. Het gaat om een speciale variant die in samenwerking met Elpida is ontwikkeld: DDR-2M.
Deze zin werkt een beetje verwarrend, want het doet denken dat hier een speciale videokaart is gedemonstreerd met de naam DDR-2M. Dat klopt half.

Er zijn twee dingen gedemonstreerd/gepresenteerd. De eerste VPU met DDR2 is gedemonstreerd. En tevens is een aankondiging gedaan van de mobiele versie van deze chip met de codenaam DDR-2M die in samenwerking met Elpida is gemaakt.

De VPU is hoogstwaarschijnlijk dezelfde die door een ATi-medewerker ook op TechTV is geshowed (in actie). Dit was een Radeon9700Pro met snellere core (waarschijnlijk 400Mhz) en 128MB DDR2 geheugen.

In datzelfde interview zei die ATi-medewerker dat ze verwachten dat de kaart een uiteindelijke geheugensnelheid zal hebben van 550Mhz DDR2 of zelfs hoger... (sidenote: NV30 had volgens de laatste berichtgeving 500Mhz DDR2).

De kans dat dit R350 is, is klein, want R350 is DX9.1 compliant en DX9.0 is nog niet eens uit. Maar goed, ik weet niet of de specs van DX9.1 al zijn vastgelegd, want anders zou het wel een R350 kunnen zijn. Maar gezien de presentatie op TechTV denk ik dat het hier om een snellere versie van R300 gaat.

Edit: hmm... de news-submit is gewijzigd, dus dan klopt m'n bovenstaande quote niet helemaal meer. :P
De kans dat dit R350 is, is klein, want R350 is DX9.1 compliant en DX9.0 is nog niet eens uit. Maar goed, ik weet niet of de specs van DX9.1 al zijn vastgelegd, want anders zou het wel een R350 kunnen zijn.
De hardware-eisen voor DirectX 9.0 en 9.1 zijn exact hetzelfde, zie hier. Het nieuwe aan 9.1 is pixel- en vertexshader versie 3.0. Deze zijn echter zo zwaar dat Microsoft er geen hardwarematige ondersteuning voor eist, omdat NV30, R350 en zelfs NV35 het gewoon niet aankunnen. De reden dat Microsoft het toch in 9.1 stopt is om developers de tijd te geven om zich voor te bereiden op de volgende generatie hardware, aangezien de nieuwe shaders een radicale vernieuwing schijnen te zijn boven de huidige.
Als die DDR-II standaard dan komt, betekent het dan dat de prijzen van de normale DDR kaarten dan gaan dalen ?

net zoals nu het geval is met de PC-133 RAM ?
Zo niet dan lijkt mij zo''n DDR-II kaart niet echt aantrekkelijk. Welke gamer heeft nu een kaart nodig met 35 gig aan bandbreedte ? :/

Hoop wel dat het daalt natuurlijk, ikke wille een 9700 voor >€140,- :Y)
Hoop wel dat het daalt natuurlijk, ikke wille een 9700 voor >€140,-
Das geen probleem hoor ;)
Nu overal te koop!

Maar idd wat moet je met 35 Gb aan bandbreedte ??
1600*1200*32*100 * 2(dual monitor??) is nog geen 13Gb..
Dus kan iemand uitleggen waarvoor dat dan nodig is ?
Wat dacht je van 128 bit color ?
1600*1200*128*100*2 = 52GB Dus dual monitor gaat het al niet lukken :P
1600*1200*32 of 1600*1200*128@100FPS is misschien geen 35GB maar je mag er hoe dan ook nog een 24bits (Nvidia) of 32bits Zbuffer bij uit tellen

((1600*1200*128)+(1600*1200*32)) * 100 FPS is ongeveer 28.6Gb (Gigabit)

Dus in totaal zo'n 3,5GB aan data per monitor :)
Maar dan heb je nog bakken met textures, pixel effecten, vertex-effecten, geometrie gegevens etc., welke allemaal over diezelfde bandbreedte moeten.

Dit zorgt er voor dat je alsnog misschien tekort heb aan bandbreedte in die reso om een beetje stoer spel (ala UT2003) dual monitor te kunnen spelen :)
die 128 bit is geloof ik alleen _in chip_
dus de berekeningen zijn 128bits maar de output wordt gewoon naar 32 bit omgezet zodat je in de berekningen niet afwijkt door afrondingsfouten. met die in chip berekeningen heeft het geheugen niets te maken.
Bij het bedrijf waar ik nu gedetacheerd ben gebruiken ze een van de meest veeleisende cad apllicaties. Deze jongens werken met 24 inch schermen in een resolutie van 1600x1200. Als ze inzoomen op een onderdeel om te bewerken en roteren dan heeft hun huidige videokaart een asus gforce ti4400 128mb met een core speed van 275mhz en memory speed van 550mhz toch zwaar. Het beeld hikt. Deze kaart heeft een 8,8gb bandbreedte. Deze kaart van Ati zou voor hun wel eens de oplossing kunnen zijn om fatsoenlijk te werken met pro-e, de autocad apllicatie
Een proffesionele kaart is misschien een betere oplossing in combinatie met de 24" schermen. Ik denk dan aan een FIREGL8800 of een Quadro4. Het is niet zo zeer een probleem van de kaart (tenminste het hikken tijdens rotaties e.d.) maar meer een dribver probleem. Drivers voor games gaan namelijk uit van 1 viewport (lees camera-positie), waar proffesionele drivers vaak support voor 4 of meer viewports bieden.
Dus kan iemand uitleggen waarvoor dat dan nodig is
Dat is nodig om meer polygonen, scherpere textures, hogere kleurdiepten op het scherm te toveren. Oftewel, om nog meer realisme in computergames te krijgen.
Waar jij het over hebt is dan alleen de beeldopbouw, als je 3D features gaat gebruiken dan is bandbreedte wel gewenst, het is al lang zo dat het overclocken van je geheugen meer invloed heeft dan je GPU overclocken (voor 3D dan)
Ik weet het niet, maar misschien voor als je graag speelt met AA vol aan op de hoogste stand? Ik heb nu een GF4 Ti4200 en die trekt het niet altijd die hoge AA instellingen.
twee weken terug was die kaart op tech-tv.

er zijn een paar die een divx gemaakt hebben het moet op kazaa staan onder ATI DDR2.
Je haalt het 1 en ander door elkaar. Bandbreedte is het aantal (G)bytes per seconde Dat wil zeggen, met 35 GB/sec kan je dus in no-time een hele mooie texture uit je geheugen halen en bewerken, affijn alles waarvoor er iets uit het geheugen moet komen gaat sneller. Zeker met scherpe, grote textures e.d. is dat erg van belang.

De berekening die jij maakt gaat uit van een opslagruimte van 32Gb en daar gaat het hier dus niet om, als het over bandbreedte gaat.
zekers wel chill zo, nu gebeurt er ten minste iets. nu moet nvidea bewijzen dat juist weer zij de hoogste bandbreedte komen zo van: ja als de nv30 uit is zullen we een versie uitbrengen met 512mb DDR2 op 512bit geheugen. Dan heb je pas bandbreedte :9

enige probleem is uiteindelijk dat niemand het meer kan bijhouden (wat nu al gebeurd), alles zal zo snel gaan dat wanneer gamedeveloppers na 2 jaar (zo lang duurt dat volgens mij wel) eindelijk hun game af hebben er al weer 10x zo goede hardware te krijgen is en kunnen ze weer al hun tijd gaan steken in een nieuwe engine die alle features ondersteund en ga zo maar door. ze plannen natuurlijk wel, kijk maar naar DOOM3, die is nog niet uit en das maar goed ook want bijna niemand kan het nu nog goed runnen volgens mij. alleen mensen met 2ghz/2000+ 512mb en ATI9700
Waarvoor zou nVidia bij de NV30 meer bandbreedte moeten hebben als een ATi met DDR-II? Het is net zo misvatting dat bandbreedte alles zegt bij een videokaart als dat bij het MHz'en verhaal bij een CPU.

Zo zal de nVidia volgens veel geruchten een revolutionaire vorm van bandbreedte besparing krijgen en dat gerucht kan best wel eens waar zijn, nVidia heeft immers 3DFX over genomen en 3DFX had weer een bedrijf gekocht genaamd Gigapixel.

Dat bedrijf was bezig met zo'n geheugenbesparende techniek en nVidia heeft nu genoeg tijd gehad om die techniek toe te passen. Als dat zo is, zegt potentiele bandbreedte net zoveel als dat MHz'en doen bij de CPU's.
kijk maar naar DOOM3, die is nog niet uit en das maar goed ook want bijna niemand kan het nu nog goed runnen volgens mij. alleen mensen met 2ghz/2000+ 512mb en ATI9700
Dat zal best meevallen, maar het is idd zo dat de hardware steeds meer begint voor te lopen op de software, dat zie je bij de CPU's, waar heb je een 2,8GHz CPU voor nodig en dat zie je dus bij de videokaarten. Maar dat is nu eenmaal vooruitgang.
nou zeg, Ati blijft maar meppen! Marketingtechnisch zijn ze iig geval goed bezig de laatste tijd, de ene introdusctie na de andere. En dat allemaal lekker op tijd voor de kerst (zodat mensen een goed gevoel bij Ati krijgen).

Natuurlijk hebben ze nu ook de techniek in huis om het mogelijk te maken. Terwijl geheugenbandbreedte nu al niet bepaald de bottleneck van de Radeon 9700 is. Toch leuk nieuws.
Wat mij alleen nog steeds tegenstaat in dat hele ATI verhaal is het feit dat voor elk spel er weer een nieuwe aangepaste driver moet komen voordat het vlekkeloos draait.
Daarom zal ik voorlopig voor Nvidia blijven kiezen ondanks dat ze prijs/prestatie gewijs blijkbaar flink duurder zijn.
Het lijkt wel of er hier een echo blijft hangen van mensen die al TIJDEN geen ATI drivers meer hebben gebruikt...

Ait heeft al sinds de R100 goede drivers en met de R200 zijn die alleen maar beter geworden...

Het is nu echt niet meer zo dat als je een nieuw spel wilt spelen eerst op zoek moet gaan naar drivers die het ondersteunen...

Wellicht is het zo dat met de nieuwste generatie kaarten er wat kleine probleempjes waren met de geoptimaliseerde drivers, maar heeft nVidia daar nooit last van?
Het probleem is dat nVidia favoriet is bij de developers dus wordt er sterk gefocused op nVidia vanwege de kwaliteit van de drivers als ze beta stage ingaan en er op grote schaal compabiliteit getest moet worden dan komt ATI pas om de hoek kijken.

Hier kun je ook al concluderen dat de nVidia featureset wel voledig benut wordt en ATI featureset optioneel als er tijd voor is. vaak dus niet.

Aangezien Gf3 DX8.0 is GF4 gedeeltelijk DX8.1
8500 volledig DX8.1

Vooral als games tijdens starten met 'n nVidia splash screen komen op mijn ATI GameRig's, heb ik meteen mijn twijvels over de development team of ATI hardware wel evenredig zoveel aandacht heeft gekregen als nVidia hardware.
een aangepaste driver?
als de ontwikkelaars zich aan de standaarden houden, dan is dat niet nodig.

maar vaak gebruiken ontwikkelaars speciale extenties die soms niet werken met een kaart van de andere fabrikant. En omdat Nvidia nu eenmaal meer geld tebesteden heeft, en ook vaak developers een handje helpt, zijn er meer spellen met specifieke nvidia extensies, dan ATi extensies...
Laten we vooral de fiascos van de eerste drivers voor de TNT2 en GF3 niet vergeten. nVidia heeft net zoveel te bewijzen met hun drivers. Maar zoals vaker geldt: resultaten in het verleden zijn geen garantie voor de toekomst. Al stemt het natuurlijk hoopvol dat de drivers voor de Radeon 9700 en de GF4 allebei vanaf het begin vrij van ernstige fouten waren. Keep up the good work...
Jammer voor al die mensen die roepen dat nvidia ati wel even zal verslaan. Ati heeft nu een voorsprong opgebouwd die niet even zo ingehaald kan worden.
Mensen die positief spreken over het "verslaan" van concurentie bekijken de zaak niet erg slim bezig...
Concurentie houdt de markt gezond.
Als ATi op deze wijze zijn concurenten "verslaat" zal ATi zijn slaatje slaan uit zijn behaalde positie. dwz het kunstmatig hooghouden van prijzen en het kunstmatig bepalen van de productcyclus.
En dit is verre van ideaal voor ons als consument...

Hetzelfde geld voor de AMD-vs-Intel; zolang er concurentie is, blijven de prijzen redelijk en de producten degelijk als een van beide stopt is de balans weg
Ik denk dat ATI nu veel kans maakt om nVidia te verslaan. GeForce 5 is niet interessant. 64bit kleuren en andere overkill-toestanden zal de kaart erg hard vertragen. De hoge prijs is ook voor vele jongere gamers een probleem.

ATI maakt nu een snelle betaalbare kaart. Maar ATI moet met hun drivers oppassen. Het kaart staat of valt met de drivers en support. De windows drivers moeten minstens zo goed zijn als die van nVidia. Linux drivers zijn ook handig, want nVidia is de enige gamerskaartenfabrikant voor Linux-users.
ATI is op dit moment idd gewoon beter, ik verwacht echter niet dat 1 van de fabrikanten de ander 'verslaat'. De NV30 van nvidia komt ook met 256 bit geheugen itt tot wat bij the inquirer nogal rondzwerft (dat stond in bronvermelding van een artikel hier een aantal dagen geleden), en er schijnt zelfs een gerucht te zijn dat deze 1 Ghz DDR2 ondersteund (lijkt me echter onwaarschijnlijk, zou wel mooi zijn :)).

Bovendien wordt die chip op .13 micron gebakken, dus ik denk eerlijk gezegd dat nvidia die geheugenbandbreedte voor het eerst opeist.
Verder wordt de NV30 over een maand aangekondigd en zal die wel eerder beschikbaar zijn dan de R350 (het is natuurlijk eerst nog een paperlaunch).

Ik geloof echter niet dat ATI op 0.15 micron blijft hangen, want ze hadden bij de introductie gezegd dat ze begin volgend jaar op 0.13 micron over zouden stappen (samen met DDR2 wat hier bevestigd word). Dat was trouwens ook een paperlaunch (is populair de laatste tijd).

maar goed: ATI en nvidia zullen binnenkort weer erg aan elkaar gewaagd zijn, en dat vind ik als consument erg erg leuk :)
hoezo NU :?
die hadden ze al.

knip
Snelheid is geen voorsprong, hoog uit een mogelijke edge. Nvidia levert meer dan alleen snelheid.
knip

wat leveren ze meer dan ati :?
goed beeld :? ati ook
stabiliteit :? ati ook
dan wil ik wel eens weten wat ze meer bieden dan ati.
Dat zegt hij toch?

Cross platform!

nVidia heeft al heel lang goed werkende, snelle en complete drivers voor Linux en Linux-IA64 WindowsXP-IA64 en ik dacht plannen voor FreeBSD. Kun je van ATI niet zeggen
(of wil je de *respect voor de makers ervan* DRI drivers voor de Radeon 1 snel of compleet noemen? UT2k3 kan er iig niet op draaien)
Dat zegt hij toch?
Cross platform!
Uhm... ik weet niet hoe lang jij niet op de ATi site bent geweest, maar ATi heeft een tijdje terug gezegd dat ze wat actiever aan Linux gaan werken. Okay, de drivers zijn nog niet op het niveau van de nV-drivers voor Linux, maar het begin is er in ieder geval.

Zie ook: http://www.ati.com/support/faq/linux.html
Ati rooit het tot nu toe alleen redelijk op het Winplatform.
Ik dacht dat de Apple Power Mac G4 anders ook al standaard worden uitgerust met een Radeon 9000 PRO. http://www.apple.com/powermac/graphics.html
Haha, De meeste mensen die hier actief zijn bedoelen met cross-platform linux support ;) selectief he ;)
Ati rooit het tot nu toe alleen redelijk op het Winplatform.
Je vergeet de Appletjes.. Ook in de gamecube zit een ATI chippie : de Flipper.. van het zelfde team als dat de 9700 heeft gemaakt...

Jammer dat ATi vs nVidia net zoeits aan het worden is als windows vs de rest en AMD vs intel... Dom geblaat van fans.. De facts zijn dat ATi op dit moment de snelste kaart heeft en nu gallery play speelt door dit prototype te showen.. image building... marketing thats it.
Morgen komt nVidia weer met Überkaart...

\[edit: te laat dus.. Outrage678 : zelfde gedachte.. :)]
ATi alleen voor Windows? Tot anderhalf jaar geleden kenden wij Maccers eigenlijk alleen ATi. Pas sindsdien is nVidia daar als mainstream GPU-fabrikant bij gekomen.

Het nadeel van nVidia is vooral de drivers. ATi ontwikkelt die zelf, maar voor nVidia moeten die door Apple worden geschreven. Daardoor is de hardware-accelleratie nog steeds minder bij nVidia dan bij ATi. Veel Maccers spreken ook nog steeds van "ATi-kaart" als synoniem voor "videokaart".

Ik heb zelf trouwens een RADEON 8500 in mijn Mac. En daar ben ik heel blij mee.
Nu zie je hoe makkelijk het nu is voor ATi om al een reactie op de NV30 neer te leggen...
Ik weet niet wat iedereen hier nou loopt te blaten over dat ATI nVidia het vuur aan de schenen legt met deze kaart, en dat die NV30 ook wel alvast kan inpakken.
Ik weet namelijk niet waar alle speculaties op gebaseerd zijn, want ik zie hier geen benchmarks bij staan, en heb die van de NV30 ook nog niet gezien.
Wie zegt mij dat deze kaart sneller is dan de NV30, of andersom?

Daarnaast: kijk ook eens naar het verleden. Waarom is 3dfx failliet gegaan? Niet omdat ze geen snelle kaarten konden leveren, maar omdat de beeldkwaliteit en de extra functies achterbleven bij die van nVidia. Als ik hoor dat die NV30 zich vooral op beeldkwaliteit gaat richten, en daarbij een goede performance neerzet, ben ik benieuwd op ze het trucje opnieuw kunnen doen. Hoe snel die nieuwe kaart van ATI ook is.
Ik weet niet wat iedereen hier nou loopt te blaten over dat ATI nVidia het vuur aan de schenen legt
Allemaal gespeculeer inderdaad.maar je moet de boel ook niet omdraaien. Ik lees hier alleen maar van "wacht maar af tot nVidia met de NV30 komt!". Maar voorlopig heeft Ati een flinke voorsprong waar nVidia voor de Kerst (wat de belangrijkste verkoopperiode is) geen antwoord op heeft.
Waarom is 3dfx failliet gegaan?
Simpel: verkeerde beleidsbeslissinggen (ingegeven door arrogantie, gebrek aan concurrentie, vasthouden aan verouderde strategieen [het heeft toch altijd gewerkt?].
Niet omdat ze geen snelle kaarten konden leveren
juist wél. Ze konden nVidia niet bijbenen door de enorme snelheid van de TNT en Geforce.
beeldkwaliteit
was juist uitstekend van de Voodoo's en Banshee's. 3DFx had als eerste echt goeie werkende FSAA!
extra functies
hadden ze ook genoeg: TV breakoutbox, 3D bril (heb ik nog) enz.
NV30 zich vooral op beeldkwaliteit gaat richten
eh? ze staan juist op achterstand en het is tijd dat ze er extra aand8 aan besteden.

3DFx bleef halstarrig vasthouden aan 16 bits en meerdere chips op 1 bord wat gewoon dubbel zo duur was en moeilijk om te laten samenwerken.

nVidia blijft maar vasthouden aan de snelt mogelijke geheugens die er zijn om het bandbreedteprobleem op te lossen.
ATi ( en Matrox ook ) heeft al zowat sinds mensenheugenis een betere naam op gebied van beeldscherpte en beeldkwaliteit. Ik zou niet weten waarom de NV30 waarvan ( zoals je zelf al aangeeft ) nog niet eens specs en benchmarks zijn. Bovendien is de beeldkwaliteit meer afhankelijk van de uiteindelijk filtering op de kaart dan van de GPU.

Enne, ten tijde van het faillisement van 3Dfx had er eigenlijk maar 1 grote speler op de markt de naam een matige beeldkwaliteit te leveren en dat was dus nVidia. 3Dfx is gewoon niet op tijd geweest met conecurrerende kaarten op de markt te zetten en had ook niet de financiële middelen om het hoofd boven water te houden.
Ik had het niet over beeldscherpte, maar over de 3D functies die het 3D gevoel beter weer moeten geven. Volgens de aangekondigde specs heeft nVidia er veel aan gedaan om "bioscoopkwaliteit" beelden te kunnen behalen.
En met de betere functies die nVidia in het verleden had bedoel ik eerder het ondersteunen van grotere textures, 32bit kleuren e.d.
als de nv30 zo goed is als we momenteel voorgeschoteld krijgen wil ik het antwoord wel eens zien van ati als een NV30 met gddr3 wordt uitgerust.

Nvidia kan net als ati nu snel wat kaarten op de markt brengen. en daarna weer een iets sneller maken, maar onthoud dat de NV 30 een zeer veel verbeterde core heeft dan de TI4600. en dat nvidia meestal net als met de ti4600 wat langer wacht en een degelijk kaart op de markt brengt.
nVidia brengt nu juist om het half jaar een nieuwe chip. De laatste tijd is dat wat minder revolutionair geworden, de gf4 die gewoon een opgefokte gf3 is, en de gf4 met 8x agp. Toch hebben ze daar goed aan verdiend, zodat ze nu met een hopelijk revolutionaire kaart komen. :)
als de nv30 zo goed is als we momenteel voorgeschoteld krijgen wil ik het antwoord wel eens zien van ati als een NV30 met gddr3 wordt uitgerust.
Het antwoord van ATi is: R400. :)

Die is al sinds eind vorig jaar in ontwikkeling bij ATi. En staat voor de tweede helft van 2003 gepland. En NV35 staat pas voor 2004 op de roadmap, dus nV krijgt hier nog wel een flinke kluif aan.
Welke gebruiker heeft nu meer dan 640kb nodig ;)
<offtopic>
Tis natuurlijk te hopen dat de prijs niveau van een reepie 512ddr bijvoorbeeld op het niveau komt van de sdram133 512mb reep van nu.
dan komt er toch zeker 1 gig in mijn machine :)
</offtopic>

Het is aan de ene kant wel leuk die concurentie strijd,
de game-devolopers kunnen zich nu, volledig uitleven.
Alleen is je kaart niet verouderd in een half jaar, maar in een week. Wat voor sommige niet rijke studenten wat minder is.
Welke gebruiker heeft nu meer dan 640kb nodig ;)
Zeker ene Gates geqoute :)

Helaas doe ik het nog steeds met een GF2-tje maar ik zit toch wel erg te :9~ :9~ op deze fantastische ontwikkelingen. Dus ik ga maar iets oer-nederlands doen: SPAREN!!!! :) want ach ja, om nu een doorlopend krediet voor een nieuwe GPU-kaart te gaan afsluiten......
Gezien de snelle opeenvolging van videokaarten de afgelopen jaar zou je kunnen zeggen dat de performance de requirments van games and 3d toepassingen begint in te halen.

Met kaarten als de ATi 9700 PRO en de Nvidia Ti4600 kun je met letterlijk alle settings op max/high vloeiend gamen (uiteraard speelt de proc/ geheugen ook een rol).

Zo komen je duur uitgegeven centjes beter tot hun recht. :Y)
mjahh maar voor hoe lang nog

Doom3 komt eraan, en UT2003 en BF1942 draai je zelfs met de snelste en nieuwste videokaarten niet geheel vlekkeloos zonder een dikke pc ter ondersteuning

als nou ook eens de prijs wat gunstiger werd van die videokaarten, want die is helaas nog steeds voor velen een rib uit hun lijf en een reden om niet voor zo'n videokaart te gaan

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True