Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 46 reacties
Bron: VR-Zone

ATi logo (kleiner)VR-Zone heeft op de Computex-beurs in Taiwan vernomen dat op 26 juli de ATi R520-GPU zal worden aangekondigd. De R520 zal dus ongeveer een maand later worden geïntroduceerd dan nVidia's G70. Deze wordt namelijk naar alle waarschijnlijkheid op 22 juni geïntroduceerd. Op de Computex liet ATi achter gesloten deuren een werkende R520 zien aan een aantal belangrijke partners. De G70 van nVidia kon op de Computex echter al door het publiek worden bewonderd op de stands van MSI en Asus. Hoewel nVidia in het voordeel schijnt te zijn qua introductiedatum, claimt ATi dat de R520 op zijn minst even snel is als de G70, zo niet sneller.

Lees meer over

Gerelateerde content

Alle gerelateerde content (25)
Moderatie-faq Wijzig weergave

Reacties (46)

Nu introduceren ze al de nieuwe generatie videokaarten. terwijl wij daar in feite als mid range gebruiker niets aan hebben. de 3d kaarten gaan sneller dan de games/software die er gebruik van maken.
heb je zeker wel wat aan. De prijs van de huidige toprange komt meer in de buurt van de midrange budgetten
Wil je de nieuwe Battlefield 2, een beetje op hoge resolutie met al de speeltjes aan draaien, dan moet je toch echt deze nieuwe generatie videokaarten hebben.
De systeemeisen van Battlefield 2 zijn ongeveer vergelijkbaar met die van Battlefield vietnam, of iets hoger. De systeemeisen van Battlefield vietnam zijn:

500-600 Mhz processor
128Mb Werkgeheugen
32Mb Videokaart
2Gb HDD ruimte

Dus dat betekend dat je battlefield 2 al met een FX 5600 of een 9600Pro al kan spelen...

:update, heb de officieele systeemeisen gevonden voor battlefield 2:

1.5Ghz Processor
512mb RAM
128mb Graphics card (needs 1.4 shaders)

De eerste waren dus uit een of andere duim gezogen. :Z
Stonden op een forum
Ik weet dat BF2 heel schaalbaar is, maar wil je in max. settings spelen, dan heb je toch echt een 2,5Ghz AMD64 en een nieuwe generatie videokaart nodig.
Dan is het ook heel belangrijk of dit om de minimum of recommended requerments gaat.
De nieuwste RTS game Earth2160 loopt met ongeveer 25 frames per seconde op systemen met een geforce 6800GT en een +/- 3GHz/3000+ CPU.

Dat is bij 1280*1024 (native resolutie van veel TFT's).
Hoge grafische settings.
Geen antialiasing.

Uiteraard kan je ook de grafische settings verminderen. Maar liever niet natuurlijk.

Dus er zijn games die echt veel power nodig hebben om alles er uit te halen.
Een RTS is eerder cpu afhankelijk. Een snellere cpu zal je al veel helpen.
Tuurlijk heb je daar wel wat aan, niet direct maar goed.

Door de introductie van de nieuwe kaarten kunnen de gamesmakers kijken wat de kaarten tegenwoordig aankunnen en op basis daarvan hun spellen maken en de eyecandy verzorgen.

Ze moeten wel samenwerken, want als ze een state of the art game maken die zelfs met de allernieuwste kaart niet te spelen is, schieten ze er niks mee op.
terwijl wij daar in feite als mid range gebruiker niets aan hebben.
Eh, dat is toch normaal?
Hetzelfde gebeurd met auto's. Met andere electronica.
Bovendien heb je er indirect wel wat aan, de prijs van 'oude' apparatuur gaat omlaag en de nieuwe apparatuur wordt extra 'getest'.
Het is idd zo dat kaarten ver vooruit lopen, te ver denk ik maar goed, als je kijkt daar games is dat niet vreemd, Doom 3 was voor de Geforce 3 bedoeld terwijl de laatste gamer met een GF3 kaart al 2 jaar voor het uitkomen van de game was uitgestorven is het wel duidelijk dat games er te lang over doen. Dan zijn er al weer bijna 4 generaties kaarten bij gekomen.

Ik zelf ben nu straks een 3 jaar gelukkige gebruiker van een Radeon 9700 Pro en zoals het nu lijkt gaat ie nog minstens een half jaar mee, mischien wel langer. Als je nu een kaart als deze koop zou je er denk ik gerust weer 3 jaar mee toe kunnen. Grafisch lijkt de markt heel snel te veranderen maar was het niet een jaar geleden dat Far Cry op de markt kwam en we pas voor het eerst Sinds Qauke 3 een echte vooruitgang hebben gemerkt. Straks Unreal 3 en verder verbeterde versies van de Doom engine, die beide engines gaan ook weer 3 jaar mee dus gokje dat je met deze kaart ook weer jaren toe kunt.

Maar goed, het blijft momenteel redelijk doelloos z'n kaart :P
Het gaat niet alleen om de enigne die gebruikt word hé...
Want sommige berekeningen, moet een CPU toch nog doen, wether you want to, or not...

Dan komen de steeds groter wordende textures er nog bij, die ook berekent moeten worden, én opgeslagen, in het geheugen van de kaart of het werkgeheugen...
Ontwikkelingen in GPU-land gaan altijd snel,
de ontwikkelingen van deze laatste kaarten zijn met name gepushed door de console-ontwikkelaars(sony, microsoft en nintendo), op zich dus niet vreemd dat er al weer nieuwe kaarten komen terwijl de laatste nog niet eens fatsoenlijk op de markt zijn.
Het kan zelfs een voordeel worden, een grotere massaproductie, goedkopere kaarten, al zal er in het begin wel een vreselijk tekort zijn.
Deze kaarten zijn helemaal niet gepushed door de console fabrikanten. Zowel Nvidia als ATI liggen gewoon op hun normale schema dat ze al jaren aanhouden.
(ze hebben de ontwikkeling zelfs wat afgeremd omdat voor beide de R&D kosten de pan uit rezen)

En wat betreft technische features van de nieuwe consoles: die komen pas in de volgende generatie desktop gpu's
Die videokaarten lopen echt niet te ver voor hoor. Het hangt van het spel af en welke eisen je zelf stelt. Met een 9800pro kan je best redelijk CS:Source spelen met med-detail met zon 60fps die soms toch wel eens aardig terug zakken. Maar om toch alles eruit te halen op full detail zal je toch een X850 moeten aanschaffen. En dat scheelt wel degelijk.

Gamemakers proberen juist in te spelen op de rekenkracht van GPU's. En daar zo efficient mogenlijk gebruik van te maken. Waarom zouden ze anders een model van 2 miljoen polygonen in 3DSMAX terugbrengen naar eentje van 5000 ingame? Omdat huidige GPU's no-way modellen van 2 miljoen polygonen realtime kunnen renderen voor een potje deathmatch. In dat opzicht kunnen videokaarten nooit voorlopen op de games.

Vergeet niet dat tussen de introductie van een nieuwe GPU en het moment dat ze op voorraad in de winkels liggen een behoorlijke tijd zit. De X850's bijvoorbeeld, zijn nu pas goed leverbaar in nederland.

Tegen de tijd dat de G70 en R520 hier goed leverbaar zijn zullen de eerste games op de Unreal 3.0 engine er wel aan zitten te komen. En ik meen gelezen te hebben dat de 6800ultra/x850 ongeveer het minimum daarvoor is.
geloof dat maar niet er speelt namelijk een hele belangrijke factor mee die tot nu toe niet genoemd is.

een game moet zoveel mogelijk verkocht worden, daarvoor moet het voor VEEL mensen haalbaar zijn, dus de systeem eisen zo laag mogelijk.

een game developer die een game uitbrengt die alleen met een SUPER TOP systeem te spelen zijn die is gedoomd te floppen.
Klopt, dat zei ik ook.. ze proberen het efficientst in te spelen op de GPU's/videokaarten/systemen. Het maximale halen uit snelle systemen, maar het moet toch nog speelbaar zijn voor de massa. Dan blijft de hardware toch nog altijd de beperkende factor. Op die manier kan de hardware nooit te snel voor de software gaan.

Ik ben het met je eens dat een games worden ontwikkeld zodat ze voor zoveel mogenlijk mensen speelbaar moeten zijn.
Met een 9800pro kan je best redelijk CS:Source spelen met med-detail met zon 60fps die soms toch wel eens aardig terug zakken
weet niet wat je dan nog meer doet maar ik kan met mijn Geforce 3 makkelijk CS: Source spelen op 1024 met gemiddelde details

en als je nu 60fps haalt of 40fps het oog merkt pas bij 30fps dat het beeld schokkerig word (dat oog ben je natuurlijk zelf ;))
Ben ik het absoluut niet mee eens.

Ik heb ook source met een GF3 gespeeld, dat ging redelijk.... geupgrade naar een 9800pro, gemiddeld zo'n 20fps meer. Ja ik haal soms 120fps maar soms zakt het gewoon keihard terug naar 50fps en dat scheelt gewoon heel veel.

Laats een beest in elkaar gezet voor een vriend A64 3800+, X850 XT, g.skill mem etc. en die komt niet lager dan 100fps en ook dat speelt weer veel en veel beter dan mijn 9800pro :)
op een gf3 gebruikt cs het directx 7 codepath, op de 9800 wordt directx9 gebruikt, dit is veel mooier, maar dus ook trager...
IK HEB EEN ATI RADEON 9200 EN KAN DAT KKSPEL NIET SPELEN!!!!!!!! HELP!!!!
@Catch22,

Ik zie de prijzen van de mid range kaarten van nu de eerste 1 jaar nog niet zakken hoor.normale mensen hebben geen interesse nog in die nieuwe generatie
Daar heb je waarschijnlijk gelijk in : de normale mensen (dus niet de hardcore high-fps gamers) hebben er in principe weinig aan omdat ze zo 'n kaart toch niet gaan aanschaffen..... MAAR
het is wel dankzij de ontwikkeling van deze kaarten dat er nieuwe (snellere) midrange modellen beschikbaar worden na verloop van tijd, dit komt omdat veel van de midrange kaarten "afgeslankte" versies zijn van de high-end kaarten zoals deze...
Ook game makers kunnen het zich niet veroorloven om voor alleen high-end kaarten games uit te brengen. De markt voor de meeste games ligt toch nog steeds in het midden segment, waar het meeste geld te behalen is. Plus vooruitkijken is voor gamemakers ook lastig, de games die we over 2/3 jaar spelen worden ontwikkeld op huidige high end kaarten, die tegen die tijd betaalbaar/mainstream zijn.

High-end video kaarten zal altijd iets blijven voor de hardcore gamers/tweaker, maar daarom niet minder interessant om te volgen. Het is ook vernamelijk een prestige strijd tussen Ati/Nvidia ... de gemiddelde tweaker/gamer laat zich toch wel een beetje beinvloeden door degene die op dit moment de snelste/beste prestatie neerlegt, ook zal hij zelf nooit die high end kaarten kopen of kunnen betalen.
PCgames zijn redelijk goed aan te passen aan hardware dus low -end tot high-end wordt ondersteund.

Alleen mainstream ondersteunen zorgt dat je game te licht is om te concureren met andere games die dat wel doen en dus wel die nieuwe features ondersteunen of hun game content daarop aan passen. Nextgen game vs mainstream kloon.

Dus mainstream zal altijd wel ondersteund worden. De High-end vaak ook wel enkele stoppen er opties in, die kaarten in de future pas voldoende kunnen gebruiken deze zijn nogal wat zeldzamer.
costum,
low,
med,
high,
very high,
extreem,
setting's
Het ziet ernaar uit dat de Geforce 7800 meteen beschikbaar zal zijn (foto's tonen chip uit Februarie), terwijl er nog niks tastbaars van de R520 is opgedoken. Achter gesloten deuren, ja, maar dat kon even goed een oudere kaart zijn, net zoals de XBox 360 demos op Apple computers draaide...
Daar komt nog bij dat de introductie net voor het verkrijgbaar worden van X-Fire zou zijn. Als de R520 1,5 tot 2x zo snel is als een X850 XT, hoeveel mensen gaan dan nog voor de X-Fire oplossing op basis van die kaart ?

nVidia was deze keer wellicht niet de snelste, maar wel de slimste. ATi heeft nog veel in te halen op dat gebied :)
Och, je kan het ook anders zien. Wellicht is ATI wel slim bezig geweest om expres Crossfire apart te introduceren.

Nu komen ze twee keer in het nieuws: 1x dat Crossfire flexibeler is en beter schaalt dan SLI.
En dan apart nog voor de R520 die sneller is dan G70.

Dat is gunstiger dan dat Crossfire tegelijk met R520 komt, want nu scoor je 2 maal ipv 1 keer.

En dat kan dan ook verklaren waarom alleen ATI alleen zelf maar Crossfire X850 kaarten gaat produceren, omdat met R520 er zo vlak achteraan niemand van hun partners interesse heeft in een productielijn voor X850 Crossfire.

(Uiteindelijk zijn SLI en Crossfire alleen maar bedoeld voor bechmarketing dus dan maakt het niet uit dat niemand het koopt in de winkel. Het is alleen maar belangrijk dat je genoeg kaarten hebt voor de reviewers }>)

Da's de pest met geruchten, je kunt ze elke kant op draaien die je wilt.
c0d1f1ed en aval0ne draaien ze uiteraard ten gunste van Nvidia, maar je kan ze ook simpel ten gunste van ATI draaien.

Die verhalen dat de een sneller beschikbaar zal zijn dan de andere hebben geen enkele onderbouwing.
Uiteindelijk zullen we gewoon moeten afwachten.

disclaimer:
Er is geen bewijs dat R520 sneller is dan G70, maar in de brei van geruchten is deze mogelijke uitleg heel acceptabel. Maar een nvidia fan zou het ook kunnen uitleggen dat Crossfire los wordt geintroduceerd omdat G70 sneller is. En dan zou in de reviews Crossfire ondergesneeuwd worden onder R520 vs G70 en daarom wordt ie dus apart geintroduceerd.
hoe zal het gaan heten?
... -> 8xxx -> 9xxx -> Xxxx -?> XIxxx
XI800 wordt denk ik wel een mooie kaart.
Wel leuk hoor... concurrentie.
Ik vind dat we (de consument) hun elk een marktaandeel van ongeveer 50% moeten gaan geven. Hetzelfde geldt voor de AMD en Intel, want zoveel verschillen ze niet en wanneer eentje failliet gaat, kunnen we gaan fluiten naar de prijsdaling en gaat de ontwikkeling ook niet zo snel meer.

EDIT: Intel heeft wel de grootste marktaandeel voor graphics. Maar die zijn onboard en alleen voor mensen die goeie 3D beelden niet zo boeiend vinden. Dat is weer een andere doelgroep. Maar voor de mensen die af en toe wel een spelletje spelen en een echte videokaart kopen. Die moeten een beetje fifty fifty gaan uitgeven.
XI80, XI85, XI30, XI60, XI70

Dat lijkt mij het meest logische, de namen worden anders nogal vreemd...
Misschien wel grappig om te weten... Ati en Nvidia wil je allebei 50% marktaandeel geven. Volgens mij heeft Intel nog altijd het grootste markt aandeel in de grafische kaart sector :)
claimt ATi dat de R520 op zijn minst even snel is als de G70, zo niet sneller.
dat zal ik wel weten ATI is sneller, altijd wil Nvidia het eerste zijn, en dan komt Ati ff later met een kaart die toch weer sneller blijkt.

we zullen zien

weet iemand wanneer een kaart met deze chip daadwerkelijk te koop is?
weet iemand wanneer een kaart met deze chip daadwerkelijk te koop is?
?error in glazenbol on line 1

(sorry, kon het niet laten) :+
@WSaeNoTSoCK
Waar baseer je dat op?

Bij NV30-R300 was ATI veel eerder.
Bij NV40-R420 weet ik het niet meer, maar daarbij zijn de prestaties nagenoeg gelijk.
De R200 (8500) zat midden tussen GF3 en GF4 in. Daarbij gaat je stelling dus ook al niet op.
En daarvoor was ATI altijd later en langzamer dan Nvidia.
Ik speel nog steeds op m'n P4 2Ghz met een GeForce4 Ti4600, nou wil ik wel een nieuwe kaart kopen, wellicht de G70..
De grafische power twijfel ik geen moment aan, van zowel ati als nvidia.

De spellen zijn alleen BAGGER!

Ik zat al een tijdje te wachten op Pariah, een van de nieuwste FPS games van EPIC waar je toch best wel wat van mag verwachten..
Onlangs ff geload om te kijken hoe ie was.. binnen 5 uur was ik klaar!
Het was een complete walk-thru met niks nieuws onder de zon; beetje schieten, knoppen drukken en lopen..
Wederom een zware tegenvaller..
je kan veel beter een goede upgrade nemen dus ook je cpu. want een g70 met een 2ghzje schiet echt niet op.
Hoewel nVidia in het voordeel schijnt te zijn qua introductiedatum, claimt ATi dat de R520 op zijn minst even snel is als de G70, zo niet sneller
Joh, en ik maar denken dat ATI binnenkort met het schaamrood op de kaken bekend ging maken dat ze absoluut nVidia niet meer bij kunnen houden. |:(

Ik durf te betwijfelen hoe groot het effect is van een ietswat latere introductiedatum dan de G70. Het moeten natuurlijk geen eeuwen gaan worden, maar een relatief korte tijd zal niet onoverkomenlijk zijn voor ATI omdat in den beginne toch verhoudingsgewijs weinig kaarten afgenomen worden in verband met de erg hoge prijs. Zal wel los lopen dus
Een iets latere introductiedatum maakt voor Europa in ieder geval niets uit, want het duurt een maand of 3 voor die kaarten hier in de winkel liggen.
Maar ook in de VS duurt het minstens een maand (maar bij zowel NVidia als ATI meestal meer) voordat het in de winkel ligt.

Dus voordat iemand een G70 in de winkel kan kopen zijn de vergelijkingsbenchmarks tussen G70 en R520 al bekend. En als de R520 dan duidelijk beter blijkt te zijn dan wachten mensen wel dat maandje.

Als ze gelijk presteren dan kun je in die maand verschil al wat extra kaarten verkopen, maar hoeveel mensen kopen er op dat moment onmiddellijk een kaart? Je zit immers niet in een feestmaand of zo.

Vaak wordt zelfs gesteld dat een latere introductie voordelig is omdat je kan reageren op je concurent. Maar 1 maand is te weinig om echt wat aan een gpu te veranderen. Het enige wat je nog in die ene maand zou kunnen besluiten is om je kaarten iets hoger te klokken en lagere yields te accepteren. Maar dan moet je ook weer andere koeling hebben etc dus zo makkelijk gaat dat allemaal niet. (zie ook het NV30 debacle)

De vraag is uberhaupt of er veel verschil tussen die kaarten zal zitten. Met de NV40 heeft Nvidia de design keuzes van de R300 overgenomen. Beide kaarten lijken nu ontzettend veel op elkaar, en nu R520 ook SM3 krijgt zullen ze zowel wat betreft prestaties als ook qua features redelijk gelijk zijn.
De afweging hoeveel pipelines en frequentie haalbaar zijn bij de huidige technieken zal immers bij beide bedrijven ongeveer gelijk uitvallen omdat hun architectuur zo op elkaar lijkt.
Algemeen wordt verwacht dat nvidia een 7800 ultra gaat uitbrengen na de launch van de R520 om zo de performance kroon te nemen.
Ach ja, dat wordt elke keer opnieuw verwacht.
Is die 6800 Über-Ultra ooit uitgekomen?

Als je een goed product hebt dan kun je 'm gewoon lanceren wanneer je zelf wilt en ben je niet van de ander afhankelijk.
Als je de kroon weer kunt inpikken door kort daarna een hoger geklokte variant te lanceren dan is dat gewoon een overgeklokt ding. Als dat een realistisch optie is, dan had je 'm gewoon meteen al kunnen lanceren. Zoniet, dan is het eigenlijk geen echte optie, en kan het ook nooit een groot performanceverschil opleveren. Bovendien zit je dan met hitte problemen, slechte yields etc.

Dan gaat het er blijkbaar om, om bij reviews net 1 fps hoger te scoren dan je concurrent.
Tegenwoordig roepen review sites geen winnaar meer uit op basis van dergelijk kleine verschillen en zijn zulke (paniek) acties niet meer nodig. (Dat is ooit wel eens anders geweest)
ha mooi, net een dagje na mijn verjaardag }>
Als er net zoveel tijd zit tussen de datum van introductie en van beschikbaarheid als bij de huidige high-end kaarten van ATI, dan denk ik dat ik met m'n verjaardag in december beter uitkom :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True