Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 105, views: 26.218 •
Bron: The Inquirer

Er is al veel te doen geweest over de R600-serie van ATi in de afgelopen maanden. Tot op heden waren de volledige naam en de mogelijke prijs echter nog een mysterie.

ATi Radeon videokaartBijna een maand geleden werd de R600 bestempeld als de Radeon X2x00-serie; volgens The Inquirer is '8' het magische nummer dat op de plaats van de 'x' moet komen in het geval van de high-end videokaarten. De aankomende topkaart van ATi - de R600 XTX-kaarten zullen in ieder geval in vier smaken komen - is de Radeon X2800XTX2, waarbij de '2' aan het einde hoogstwaarschijnlijk staat voor het beschikken over twee grafische cores. Nvidia is ATi op dit front al voorgeweest met de GeForce 7950GX2, maar voor DirectX 10-kaarten is het de eerste keer dat er twee cores op ťťn kaart verwerkt worden, alhoewel nVidia tevens aan een dualcore G80-videokaart schijnt te werken.

Gekeken naar voorgaande mogelijke specificaties lijkt de X2800XTX2 iets anders toebedeeld te worden dan zijn broertjes. Zo zal de kloksnelheid per core waarschijnlijk 575MHz bedragen en loopt het gddr4-geheugen op een snelheid van 2GHz in plaats van respectievelijk 700MHz of meer voor de core en 2,4GHz voor het geheugen bij de niet-dualcore XTX. Ook beschikt deze variant over een 256bit-geheugencontroller. The Inquirer denkt dat hiervoor geopteerd is omdat twee chips mogelijk niet goed werken op een 512bit-controller. De kaart beschikt verder over twee maal 512MB geheugen, twee 96 shader-eenheden en dit alles wordt gebakken op 80nm. De prijs zal waarschijnlijk rond de 600 dollar uit gaan vallen. Ook moet het mogelijk worden om quad-Crossfire te draaien door twee van deze kaarten in een systeem te prikken.

Reacties (105)

Reactiefilter:-11050101+169+214+35
AMD met zijn X2 toevoeging ;)
Die namen is volgens mij iedereen inmiddels wel aan gewend, dat is al tijden zo. Wat ik me voornamelijk afvraag is of ze hier nou echt dual-core bedoelen. Want volgens mij bedoelen ze gewoon dual-gpu. zoals ook bij de geforce variant het geval is, dual-core zou betekenen 1 gpu met daarop 2 cores.
2x2 = quad core.. of nie?
weer een mooie vooruitgang van ATI :P
Welke vooruitgang? :? Ik hoor al bijna een jaar alleen maar geruchten, maar een echte release datum heb ik nog niet gehoord. En daarbij het gerucht van een ('oude') 128bits-geheugenbus bij de nieuwe mid-range X2600 serie, stemt mij alleen maar somber :'(
En nu dus ook al 256bit voor het 'topmodel' dat uit twee kaarten bestaat. Beetje triest, NVidia schroefde alleen maar de kloksnelheid wat terug op de 7950GX2 en het werkte prima, voor zover de driver support het toeliet. Van AMD uit is dit echt een flinke hap uit de performance, het zou me dan ook verbazen als deze kaart meer dan 20% boven het normale topmodel van AMD met de volle snelheid en 512bit bus uit weet te komen in de spellen waar hij voor is geoptimaliseerd. Het zou me nog niet verbazen als hij voor het gros van de spellen gelijk of minder presteerd aan de X2800XTX...
En wat ik al helemaal niet snap zijn de 96 shaders op beide cores van de X2800XTX2, terwijl de normale X2800XTX maar 64 shaders heeft, dus de helft minder bandbreedte en 50% meer shaders. Als dat betere performance biedt, dan is die 512bit bus op de normale editie met zijn 64 shaders natuurlijk ook totale verspilling.
Ik snap er niet veel van wat ze bij AMD proberen te doen met dit soort kaarten, maar het komt op mij meer over als een aardig experiment, dan een uitgekristalliseerd product voor de eindgebruiker... en dan nog het energieverbruik van naar verwachting minstens 350 Watt :(
@olaf: ik verwacht ook dat het per core 256bit is, maar de normale X2800XTX heeft voor zijn ene core wel 512bit, net als de rest van de single core X2800 serie. Als de R600 core die 512 bit echt nodig heeft, dan zou een core met 256bit in het slechtste geval ook maar de helft presteren. En twee cores met halve prestaties doen het nooit zo goed als een die dubbel zo snel is... laat staan nog 50% extra shaders op tijd van data kunnen voorzien ;(
En nu dus ook al 256bit voor het 'topmodel' dat uit twee kaarten bestaat.
Ik denk dat het 2x 256 bit is, elke core zal zijn eigen geheugen en eigen geheugencontroller krijgen.
het blijft inderdaad alleen maar bij geruchten, maar er echt iets van zien doen we niet :(
ik wacht ook al een tijdje op de nieuwe DX10 kaarten van AMD/Ati maar wanneer komen ze in nederland uit, dat is de vraag die me bezighoud, en weet toevallig iemand of er ook budget kaarten uitkomen met 2 GPU's?

@ alval0ne
das toch met elkaar veel duurder :P
Al van crossfire gehoord?
Wat ik me afvraag is of het nog enig nut heeft om een quad-crossfire te draaien aangezien men overal beweert dat de cpu de bottleneck is voor de meeste pc's.

Ook ben ik benieuwd naar het stroomverbruik, als ATI het voor elkaar krijgt om aanzienlijk beter met het verbruik van deze kaarten om te gaan, kon dit nog wel eens een interessante kaart worden.
Tuurlijk heeft het nut...

Zeker als er games op de markt komen die gebruik maken van multicore cpus en je een PC hebt met 2 quad core cpus.

Of het het geld waard is, is een andere vraag. Maar je games worden er vast wel sneller van....
De CPU is vooral een bottleneck voor de verwerking van geometrie e.d.; het aanleveren van data aan de GPU.

Zo'n crossfire opstelling zal daardoor niet veel meer objecten op je scherm tonen, maar voor bijvoorbeeld een hogere resolutie of beter anti-aliassing heb je niet meer invoergegevens nodig; dergelijke verbeteringen kunnen dus zonder de CPU lastig te vallen.
De CPU is vooral een bottleneck voor de verwerking van geometrie e.d.; het aanleveren van data aan de GPU.
Helemaal niet. Vertex shaders en nu ook geometry shaders verwerken alles op de GPU. Ook is er voldoende videogeheugen om alles daar te houden.

De CPU is vooral bezig met de logica van het spel (fysische berekeningen, artificiŽle intelligentie, zichtbaarheid, etc). Met DirectX 9 gaat ook een significante hoeveelheid van de beschikbare tijd naar het omschakelen tussen user mode en kernel mode. Vanaf DirectX 10 is dat heel wat efficiŽnter omdat een significant deel van de driver zich in user mode bevindt.
Wat ik me afvraag is of het nog enig nut heeft om een quad-crossfire te draaien aangezien men overal beweert dat de cpu de bottleneck is voor de meeste pc's.
Als jij ten alle tijde gemiddeld +60FPS wilt hebben in alle nieuwe games @ 1920x1200 met veel AA dan speelt een CPU niet zo'n grote rol, je videokaart(en) daarentegen wel.
Met meerdere kaarten zal je eerder aan bovengestelde eis voldoen, ook al heb je "slechts' bijv. een X2 4000 als processor.
Wat ik me afvraag is of het nog enig nut heeft om een quad-crossfire te draaien aangezien men overal beweert dat de cpu de bottleneck is voor de meeste pc's.
dat komt omdat al de huidige games dx9 zijn.
daarword de GPU niet genoeg uitgedaagt en komt te bottlenek bij de cpu te liggen. maar je frames zijn dan al zo hoog dat dat weinig uit maakt.

dit gaat verandering met echt DX10 games. daar zullen zeker de shaders veel ingewikkelder worden waardoor de gpu harder moet werken per frame en dx10 zelf is veel efficienter wat dus minder cpu overhead betekend.
ook gaat zoals gezegt de GPU in dx10 een aantal taken van de cpu overnemen.
en hoeveel mag zo,n kaart trekken kwa Watt?

Kan die wachten op de eerste benches.
En als er dan nog eens software voor zou komen, zou dat helemaal mooi zijn!

En over QUAD-Crossfire: dat wordt vast OCTO-PSU en lenen.nl.
Octo-PSU, erg leuk bedoeld, wellicht grappig bedoeld, maar mijn pc gebruikt 220Wattjes ... en ik heb een GF7950GX2 met 10 hardeschijven, waarvan 2 raptors en een AMD5000X2 ... lijkt me niet dat je een spectaculaire voeding daar voor nodig hebt, aangezien ik met 350Watt met gemak voldoe aan de vraag van de hardware.

TIP: koop eens een watt meter bij de blokker voor 15 euro en meet eens wat je eigen pc gebruikt ;)
Kan ik erg erg erg moeilijk geloven. Men overgeclockte athlon XP @ 2400mhz met 3 schijven , dvd ram drive , X800 XT PE haalt in full load tot ongeveer 285W.

Of je moet die 10 harde schijven extern hebben aangesloten...

Meestal zegt het wattage op de voeding weinig, je kan beter zien of je amperage op je op rails voldoet.
Athlon XP is dan ook wel een energievreter
OCTO-PSU is dan wel overdreven, maar met een QUAD-Crossfire opstelling, heb je 4 cores die in de terug geschroefde toestand (standaard max 240 Watt, retail versie) dan toch wel gauw een 100 - 150 max kunnen gaan opnemen, en met dan tussen de 400 en 600 Watt wat die Crossfire opstelling maximaal zou kunnen opnemen, dan is een erg goede en stabiele 850 -1000 Watt voeding toch wel eens interesant....
Ik zou het al mooi vinden als er nu eindelijk eens een R600 kaart kwam :Z
Ik gok dat er met octo-psu bedoeld wordt dat je 8x een pci-e voeding connector nodig hebt.
Was al bekend, een lek :P
Maar ik vind het wel goed..!
LOL.. Iemand een 8800GTS 320MB kopen. 2 dagen oud.
200 euro maar dan wil ik er wel goede drivers bij voor die prijs (A)
Ook moet het mogelijk gaan worden om quad-Crossfire te draaien door bijvoorbeeld twee van deze kaarten in een systeem te prikken.

Kijk hier wordt ik nou vrolijk van :D laat maar komen.
Ja, 1200 dollar voor twee van deze kaartjes.
De prijs zal waarschijnlijk rond de 600 dollar uit gaan vallen
Ik neem aan dat jij ook in Euro's moet betalen.
De koers van de Euro is op dit moment ongeveer 1,32 dollar dus 1 dollar is ongeveer 0,76 euro. 600 dollar * 0,76 is "slechts" § 456,- maar komt altijd wat bij qua kosten en wellicht extra winst voor de bedrijven maar het is goed mogelijk dat ie onder de 500 euro gaat kosten als de koers zo ongeveer blijft!
En sinds wanneer rekenen ze de prijzen om ? alles wat in de US in dollars uitkomt komt hier in Euro's uit .. ;(
Ja, delen door het kwadraat van de wortel |:(
De meeste mensen, die hardwarefanaat zijn, die een prijs in dollars horen/zien op het gebied van videokaarten, weten vast wel wat ze ongeveer moeten betalen in Euro's voor de kaart.
Leuke berekening wat je daar gebruikte, maar dat werkt niet, gezien dit soort producten hier altijd duurder zijn dan in Amerika.
reken je ook nof ff de invoer rechten mee extra europese btw enz dan kom je wel aan 600 euro als het al niet meer is
Leuk straks kan ik heel het huis verwarmen als ik een crossfireopstelling hiervan draai :)
wat verstookt dit ding 800W ? :P

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013