Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 105 reacties
Bron: The Inquirer

Er is al veel te doen geweest over de R600-serie van ATi in de afgelopen maanden. Tot op heden waren de volledige naam en de mogelijke prijs echter nog een mysterie.

ATi Radeon videokaartBijna een maand geleden werd de R600 bestempeld als de Radeon X2x00-serie; volgens The Inquirer is '8' het magische nummer dat op de plaats van de 'x' moet komen in het geval van de high-end videokaarten. De aankomende topkaart van ATi - de R600 XTX-kaarten zullen in ieder geval in vier smaken komen - is de Radeon X2800XTX2, waarbij de '2' aan het einde hoogstwaarschijnlijk staat voor het beschikken over twee grafische cores. Nvidia is ATi op dit front al voorgeweest met de GeForce 7950GX2, maar voor DirectX 10-kaarten is het de eerste keer dat er twee cores op ťťn kaart verwerkt worden, alhoewel nVidia tevens aan een dualcore G80-videokaart schijnt te werken.

Gekeken naar voorgaande mogelijke specificaties lijkt de X2800XTX2 iets anders toebedeeld te worden dan zijn broertjes. Zo zal de kloksnelheid per core waarschijnlijk 575MHz bedragen en loopt het gddr4-geheugen op een snelheid van 2GHz in plaats van respectievelijk 700MHz of meer voor de core en 2,4GHz voor het geheugen bij de niet-dualcore XTX. Ook beschikt deze variant over een 256bit-geheugencontroller. The Inquirer denkt dat hiervoor geopteerd is omdat twee chips mogelijk niet goed werken op een 512bit-controller. De kaart beschikt verder over twee maal 512MB geheugen, twee 96 shader-eenheden en dit alles wordt gebakken op 80nm. De prijs zal waarschijnlijk rond de 600 dollar uit gaan vallen. Ook moet het mogelijk worden om quad-Crossfire te draaien door twee van deze kaarten in een systeem te prikken.

Reacties (105)

Reactiefilter:-11050101+169+214+35
Moderatie-faq Wijzig weergave
Wat ik me afvraag is of het nog enig nut heeft om een quad-crossfire te draaien aangezien men overal beweert dat de cpu de bottleneck is voor de meeste pc's.

Ook ben ik benieuwd naar het stroomverbruik, als ATI het voor elkaar krijgt om aanzienlijk beter met het verbruik van deze kaarten om te gaan, kon dit nog wel eens een interessante kaart worden.
De CPU is vooral een bottleneck voor de verwerking van geometrie e.d.; het aanleveren van data aan de GPU.

Zo'n crossfire opstelling zal daardoor niet veel meer objecten op je scherm tonen, maar voor bijvoorbeeld een hogere resolutie of beter anti-aliassing heb je niet meer invoergegevens nodig; dergelijke verbeteringen kunnen dus zonder de CPU lastig te vallen.
De CPU is vooral een bottleneck voor de verwerking van geometrie e.d.; het aanleveren van data aan de GPU.
Helemaal niet. Vertex shaders en nu ook geometry shaders verwerken alles op de GPU. Ook is er voldoende videogeheugen om alles daar te houden.

De CPU is vooral bezig met de logica van het spel (fysische berekeningen, artificiŽle intelligentie, zichtbaarheid, etc). Met DirectX 9 gaat ook een significante hoeveelheid van de beschikbare tijd naar het omschakelen tussen user mode en kernel mode. Vanaf DirectX 10 is dat heel wat efficiŽnter omdat een significant deel van de driver zich in user mode bevindt.
Wat ik me afvraag is of het nog enig nut heeft om een quad-crossfire te draaien aangezien men overal beweert dat de cpu de bottleneck is voor de meeste pc's.
Als jij ten alle tijde gemiddeld +60FPS wilt hebben in alle nieuwe games @ 1920x1200 met veel AA dan speelt een CPU niet zo'n grote rol, je videokaart(en) daarentegen wel.
Met meerdere kaarten zal je eerder aan bovengestelde eis voldoen, ook al heb je "slechts' bijv. een X2 4000 als processor.
Wat ik me afvraag is of het nog enig nut heeft om een quad-crossfire te draaien aangezien men overal beweert dat de cpu de bottleneck is voor de meeste pc's.
dat komt omdat al de huidige games dx9 zijn.
daarword de GPU niet genoeg uitgedaagt en komt te bottlenek bij de cpu te liggen. maar je frames zijn dan al zo hoog dat dat weinig uit maakt.

dit gaat verandering met echt DX10 games. daar zullen zeker de shaders veel ingewikkelder worden waardoor de gpu harder moet werken per frame en dx10 zelf is veel efficienter wat dus minder cpu overhead betekend.
ook gaat zoals gezegt de GPU in dx10 een aantal taken van de cpu overnemen.
Tuurlijk heeft het nut...

Zeker als er games op de markt komen die gebruik maken van multicore cpus en je een PC hebt met 2 quad core cpus.

Of het het geld waard is, is een andere vraag. Maar je games worden er vast wel sneller van....
Nvidia is ATi op dit front al voor geweest met de GeForce 7950GX2

Dat dacht ik dus mooi niet :Y) Het waren gewoon 2 kaarten, die met een SLI brug aan elkaar gekoppelt waren en via een truucje als 1 kaart worden gezien.

Ik vraag me af wat ATI hiermee gaat doen op 2cores tot 1gpu bakken of..... Van AMD zijn we gewend dat ze 'ťchte' dual/quad core cpu's maken (niet de boel aan elkaar naaien).. Kunnen we dit nu ook verachten van ATI sinds het van AMD is ?


Een ťchte dualcore- GPU zal op 1 PCB zijn ťn tot 1gpu package verwerkt zijn. :Y)

Eerst maar eens zien wat hier van waar is, Šls er concrete uitspraken van ATI zelf zullen hier duidelijkheid over moeten geven.
Het is duidelijk dat ATI deze kaart wil uitbrengen als reactie op de GX2 van NVIDIA. Hoe NVIDIA 2 gpu's gebruikt is niet van belang, wat telt is dat ATI weer eens NVIDIA našapt, net zoals ze met SLi/CF deden.
Laten we niet te hard van stapel lopen.

Voor zover ik weet was 3dfx eerst met SLI (zelfde letterwoord, andere betekenis), voor NVIDIA het bedrijf overnam. En ATi had ook reeds de Rage Fury MAXX met 2 'GPU's ten tijde van de GeForce 256 en Voodoo 5. Daarenboven kan je het moeilijk een revolutionair idee noemen.
Ik denk dat een ťchte dual-core GPU niet heel erg groot wordt, Šls ze de Texturememory sharen inplaats van iedere gpu zijn eigen geheugen dan zijn er dus de helft minder geheugenbanen nodig en dat scheelt aanzienlijk in grootte.

Zo kan je de 'efficiŽncy'' ook verhogen, core 1 rekent
texture 2x2 uit en de andere 2x2 = zo heb je effectief 4x4 Zo kan je velen malen hogere resoluties aan met scherper beeld en toch super snelle prestatie's (anti alias dus)

4x4+4x4=8x8 textures.. als de gpu's het geheugen sharen dan kunnen ze ook sneller dingen dingen op het beeld toveren.
Ńls dit zo gaat gebeuren, kan je stellen dat hoge instellingen wel een extra performance van misschien 100% Of zelfs meer t.o.v. single-core GPU omdat een gpu simpelweg meer tijd nodig heeft voor een texture van 8x8 dan voor 4x4. (theoretisch)

voorbeeld:
GPU doet 2 seconden over texture 8x8

GPU1 doet 1 seconde over texture 4x4
GPU2 doet 1 seconde over texture 4x4

je hebt dus eigenlijk de dubbele rekenkracht tot je beschikking, het ligt ook aan de effectiviteit van de GPU's tegenover elkaar ťn hoe ze met het geheugen om zullen gaan... maarja 2 textures van 4x4 vragen minder bandbreedte als 1 8x8 texture.

We zullen zien !!

maarja dit is puur giswerk :Y)
uhm. kan aan mij liggen,, maar.
4x4 = 16 pixel
8x8 = 64 pixel

4x4+4x4 = 32
32 != 64

4x4+4x4 = 4x8
4x4+4x4+4x4+4x4 = 8x8

je logica is dus enigsinds flawed. maar ik snap wat je bedoelt ;)
ik denk echter dat ze eerder allebei tegelijk een aparte texture uitrekenen, dan beide hetzelfde texture of een deel hier van.
Ohja je hebt idd totaal gelijk }> Zou het aan de vroege ochtend liggen ofzo :+ haha

Gelukkig begreep je het :7 Zo fout is het dus niet.. haha. Ik denk trouwens wel dat als ze deze theorie gaan toepassen best een fikse performance winst kan opleveren :)
ja, nu kan ATI gelijk laten zien dat hun drivers en compatibaliteit beter is, als hun quad crossfite confuguratie goed werkt, dan lopen ze voor op Nvidia. Want de drivers voor Quad SLI (2x 7950 GX2) waren niet echt geweldig, de peformance winst was minimaal.

ik hoop dat ATI hun nieuwe reeks kaarten zo snel mogelijk uitbrengt, ik hoop dat ze de 8800 dik stront laten draaien. Zodat Nvidia voort moet maken met een 8900 serie.
Typisch gevalletje van eerst zien dan geloven. Je zegt wel: nu kunnen ze laten zien DAT hun drivers beter zijn maar dan moeten ze dat wel waarmaken niet dan? Waar basseer je dat op? Misschien is het wel gewoon zo dat je per extra grafische kaart 1-->2-->4 steeds minder winst erbij hebt in prestatie...
In een bericht van gisteren stond dat de nieuwe kaarten pas in Mei worden verwacht!
Best kand dat nVidia dan op de zelfde dag met de 8900 komt of misschien een dag later.
laten we het zo zeggen... ze hebben nog 2/3 maanden om hun drivers voor vista (misschien zelfs XP) op orde te krijgen...

daarna zie ik wel verder... mijn 7900GTX gaat nog wel ff mee denk ik :)
NVidia is ATi op dit front al voor geweest met de GeForce 7950GX2
Wel eens van de ATI Fury Maxx gehoord?
Je bedoelt die afgrijselijk slechte kaart met 2 gpu's die zelfs dan nog niet in de buurt van een enkele geforce kwam?
Btw wel eens van 3DFX gehoord?
Nogal logisch gezien de chip van de MAXX een concurrent was voor de TNT2, en een TNT2 kon ook niet op tegen de geforce256 |:(

Daarnaast kon de MAXX (met latere drivers) qua prestaties redelijk meekomen met de geforce256 en Voodoo 5, hij miste echter een hoop features...


De MAXX was trouwens wel de eerste commerciŽle kaart die Alternate Frame Rendering gebruikte.
En als er dan nog eens software voor zou komen, zou dat helemaal mooi zijn!

En over QUAD-Crossfire: dat wordt vast OCTO-PSU en lenen.nl.
OCTO-PSU is dan wel overdreven, maar met een QUAD-Crossfire opstelling, heb je 4 cores die in de terug geschroefde toestand (standaard max 240 Watt, retail versie) dan toch wel gauw een 100 - 150 max kunnen gaan opnemen, en met dan tussen de 400 en 600 Watt wat die Crossfire opstelling maximaal zou kunnen opnemen, dan is een erg goede en stabiele 850 -1000 Watt voeding toch wel eens interesant....
Ik gok dat er met octo-psu bedoeld wordt dat je 8x een pci-e voeding connector nodig hebt.
Octo-PSU, erg leuk bedoeld, wellicht grappig bedoeld, maar mijn pc gebruikt 220Wattjes ... en ik heb een GF7950GX2 met 10 hardeschijven, waarvan 2 raptors en een AMD5000X2 ... lijkt me niet dat je een spectaculaire voeding daar voor nodig hebt, aangezien ik met 350Watt met gemak voldoe aan de vraag van de hardware.

TIP: koop eens een watt meter bij de blokker voor 15 euro en meet eens wat je eigen pc gebruikt ;)
Kan ik erg erg erg moeilijk geloven. Men overgeclockte athlon XP @ 2400mhz met 3 schijven , dvd ram drive , X800 XT PE haalt in full load tot ongeveer 285W.

Of je moet die 10 harde schijven extern hebben aangesloten...

Meestal zegt het wattage op de voeding weinig, je kan beter zien of je amperage op je op rails voldoet.
Athlon XP is dan ook wel een energievreter
Ik zou het al mooi vinden als er nu eindelijk eens een R600 kaart kwam :Z
Dacht dat de nieuwe Radeons maximaal 64 shader eenheden zouden krijgen met 4D of 5D berekeningen.
Als er daadwerkelijk 128 shader eenheden met 4D/5D berekeningen erin komen (voor de single variant) dan laten ze de concurrentie ver achter zich...

Of zijn dit typo's?
Wat zijn 4D en 5D berekeningen voor een graphische kaart? :? kan iemand mij dat uitleggen? De meeste games zijn nogsteeds 3D (ruimte) ...de tijd wordt nogsteeds bijgehouden door de cpu...Maar misschien wel een leuke gedachte/ontwikkeling om 'bullettime' beter grafisch te behandelen door de GPU :Y)
Ik vermoed dat DingieM het heeft over de vector bewerkingen van de shaders. Normale (pixel)shaders werken op vectoren van 4 componenten, met andere woorden, 4 dimensies. Dat hoeft echter niets te maken te hebben met de drie ruimtelijke dimensies van het spel.
Aanvulling:
Ter vergelijking kan de 8800GTX maar 2d aan, ik weet niet precies waar dat D voor staat. Maar het heeft er mee te maken dat de GPU van de Radeon 2 - 2,5 keer meer dan de Geforce per shader kan doen. Of er ook gebruik van gemaakt kan worden is de tweede vraag.
Die 4de dimensie is in dat geval bijvoorbeeld een draaiingshoek zoals in een quaternion.
Inderdaad bedoel ik de vector parameters die tegelijkertijd meegenomen worden in de berekeningen.
Van de G80 weet ik dat de shaders maar 1 vector parameter kunnen verwerken in de berekening en de R600 4 of zelfs 5 tegelijk.
Vandaar dat de shader eenheden in de G80 een veel hogere klok nodig hebben (1.2 tot 1.5 GHz toch?) en de R600 shaders lopen "maar" op 750 MHz...
Dus theoretisch kan de R600 twee to twee-en-een-half keer zoveel shader berekeningen uitvoeren als er daadwerkelijk 128 shader eenheden zijn, op tweemaal zo lagere kloksnelheid als de G80.
Ter vergelijking: de GPU in de Xbox360 heeft 48 shaders verdeeld over 3 groepen (dus eigenlijk 3 eenheden) en er is verteld dat er eigenlijk 64 shaders opzaten maar 16 weggelaten zijn door verbeterde yields...
Ik heb ook nog nooit van dit verhaal gehoord, maar wellicht dat 4D/5D support nuttig is voor niet-grafische toepassing van de GPU.

Ik weet dat iig NVidia bij toekomstige GPU's rekening houdt met dergelijke toepassingen, zal ATi ook wel doen.

Physics zijn een relatief populair onderwerp om op GPU te berekenen, en een 4e dimensie zal daar geen kwaad kunnen ;)
jammer dat je dan op je monitor niet 4d kan weergeven, daar heb je nog een werkelijk 3d scherm voor nodig (om 4d weer te geven moet je projecteren op een 3d vlak, voor 3d beeld een 2d vlak etc.)
Als een GPU gebruikt wordt voor niet grafische berekeningen is het scherm natuurlijk niet relevant. En in de wiskunde is het helemaal niet ongewoon om in n-dimensies te denken.

Dat gaat al jaren goed zonder dat er beeldschermen bestaan die in n-1 dimensies kunnen projecteren.

Als je dan toch een leuk plaatje wil hebben kun je altijd nog een doorsnede van 2 of 3 dimensies projecteren,
Damn! Als je zie hoe groot die single GPU kaart al is (32 cm), hoe groot moet de dual dan wel niet worden!
ach, een CPU is zowiezo niet zoveel groter als die 2 cores heeft.
Hou toch eens op met de oem kaart te tonen want die zijn altijd al zo groot geweest. De gewone kaart is 26cm lang!
Zelfs OEM kaarten zijn al niet meer zolang geweest dat ze de volledige lengte van de PCI standaard gebruiken (achterin de kast kunnen vastklikken) sinds de Voodoo 5 (als ik me niet vergis).
weer een mooie vooruitgang van ATI :P
Welke vooruitgang? :? Ik hoor al bijna een jaar alleen maar geruchten, maar een echte release datum heb ik nog niet gehoord. En daarbij het gerucht van een ('oude') 128bits-geheugenbus bij de nieuwe mid-range X2600 serie, stemt mij alleen maar somber :'(
En nu dus ook al 256bit voor het 'topmodel' dat uit twee kaarten bestaat. Beetje triest, NVidia schroefde alleen maar de kloksnelheid wat terug op de 7950GX2 en het werkte prima, voor zover de driver support het toeliet. Van AMD uit is dit echt een flinke hap uit de performance, het zou me dan ook verbazen als deze kaart meer dan 20% boven het normale topmodel van AMD met de volle snelheid en 512bit bus uit weet te komen in de spellen waar hij voor is geoptimaliseerd. Het zou me nog niet verbazen als hij voor het gros van de spellen gelijk of minder presteerd aan de X2800XTX...
En wat ik al helemaal niet snap zijn de 96 shaders op beide cores van de X2800XTX2, terwijl de normale X2800XTX maar 64 shaders heeft, dus de helft minder bandbreedte en 50% meer shaders. Als dat betere performance biedt, dan is die 512bit bus op de normale editie met zijn 64 shaders natuurlijk ook totale verspilling.
Ik snap er niet veel van wat ze bij AMD proberen te doen met dit soort kaarten, maar het komt op mij meer over als een aardig experiment, dan een uitgekristalliseerd product voor de eindgebruiker... en dan nog het energieverbruik van naar verwachting minstens 350 Watt :(
@olaf: ik verwacht ook dat het per core 256bit is, maar de normale X2800XTX heeft voor zijn ene core wel 512bit, net als de rest van de single core X2800 serie. Als de R600 core die 512 bit echt nodig heeft, dan zou een core met 256bit in het slechtste geval ook maar de helft presteren. En twee cores met halve prestaties doen het nooit zo goed als een die dubbel zo snel is... laat staan nog 50% extra shaders op tijd van data kunnen voorzien ;(
En nu dus ook al 256bit voor het 'topmodel' dat uit twee kaarten bestaat.
Ik denk dat het 2x 256 bit is, elke core zal zijn eigen geheugen en eigen geheugencontroller krijgen.
het blijft inderdaad alleen maar bij geruchten, maar er echt iets van zien doen we niet :(
ik wacht ook al een tijdje op de nieuwe DX10 kaarten van AMD/Ati maar wanneer komen ze in nederland uit, dat is de vraag die me bezighoud, en weet toevallig iemand of er ook budget kaarten uitkomen met 2 GPU's?

@ alval0ne
das toch met elkaar veel duurder :P
Al van crossfire gehoord?
Ben ik nou de enige die vindt dat de benamingen van videokaarten ( in het bijzonder ATi ) niet meer helemaal te volgen zijn?

Vroeger had je nog netjes de 9700/9800 serie maar sinds het invoeren van de X-serie is de logica ver te zoeken...
X staat voor 10 dus ik snap niet helemaal wat je bedoelt met logica is ver te zoeken?

9800
x800
x1800
x2800

in principe is dus de x2800 de12800 ;)
Ik had XII800XT, XII850XTX, XII900XTX enz enz nog logischer gevonden.

En de oude serie dan XI800XT, XI900XT, X850XT, X800 enz


Zo springen de modellen iets duidelijker naar voren. (800, 900, 600 enz enz)

dus..

Waarom de ene helft van 12 (want dit is het getal van de generatie) met een letter benoemen en de andere helft van 12 met een cijfer.

X2800XT lijkt snel op een budget kaart door die 2.
en eigenlijk staat er dus niet 12800xtx2, maar 102800xtx2

Op dit item kan niet meer gereageerd worden.



Microsoft Windows 10 Home NL Apple iPhone 6s Star Wars: Battlefront (2015) Samsung Galaxy S6 edge Apple Watch Project CARS Nest Learning Thermostat Ibood

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True