Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 95 reacties
Bron: The Inquirer

Met het dichterbij komen van de introductie van de eerste DirectX 10-kaarten van ATi komt er ook meer informatie beschikbaar. The Inquirer heeft verschillende geruchten verzameld over de R600-core die gebruikt zal worden voor de Radeon X2x00-serie.

R600 coreTotaal zullen er vier verschillende modellen geïntroduceerd worden. Het topmodel is de Radeon X2x00 XTX, welk nummer er precies achter de twee komt te staan is nog niet bekend. De kaart kenmerkt zich door de aanwezigheid van 1GB gddr4-geheugen met een 512-bit brede geheugenbus en een effectieve kloksnelheid van 2,4GHz. Dit is goed voor een bandbreedte van 153,6GB/sec, aanzienlijk meer dan de 86,4GB/sec die de GeForce 8800 GTX kan leveren. De kaart zal 30cm meten en uitgerust worden met een dual-slot koeler en twee 6-pins pci-e-stroomaansluitingen. Een stapje lager op de ladder komt de Radeon X2x00 XT te staan die ruwweg hetzelfde is als de XTX-versie, maar loopt op lagere kloksnelheden. Afhankelijk van de prijzen en de beschikbaarheid van gddr4-geheugen zal er naast een 1GB-versie ook een 512MB-versie verschijnen.

De derde kaart die het daglicht zal zien is de Radeon X2x00 XL. Deze kaart zal nog steeds uitgerust worden met gddr4-geheugen, maar de kloksnelheden zullen nog een stapje lager liggen. De laatste kaart die zal verschijnen is de Radeon X2000 GT. Deze kaart zal het moeten doen met de langzaamste chips en gddr3-geheugen. Omdat AMD van plan is om deze kaart niet alleen als videokaart op de markt te zetten, maar ook als generieke processor komen er versies met 1GB en 2GB geheugen. The Inquirer bericht verder dat het mogelijk is om de kaarten uit te rusten met twee hdmi 1.3-aansluitingen en dat ze, met uitzondering van het topmodel, uitgerust zullen zijn met de nieuwe 8-pins pci-e-stroomaansluiting.

Moderatie-faq Wijzig weergave

Reacties (95)

Omdat AMD van plan is om deze kaart niet alleen als videokaart op de markt te zetten, maar ook als generieke processor komen er versies met 1GB en 2GB geheugen.
Wat mag ik me hierbij voorstellen? Een generieke processor? Een soort ppu, iets voor dat folding@home gebeuren of een soort assist cpu waar je ook gewoon in desktop programma's extra prestaties kan verwachten?
Erm, als ik het me goed herinner wil AMD de kant op van generiq processing. Een aparte processor voor een bepaald doel. Voordeel hiervan is dat je op die manier een processor veel beter kunt optimaliseren voor een bepaalde bewerking. Een processor die bijvoorbeeld puur op het renderen van een film gericht is zal bijvoorbeeld veel sneller die film renderen dan een vergelijkbare normale CPU.

Er staat ergens op AMD een heel artikel / presentatie over, alleen laat google me even in de steek =)
Stel je dit voor.
D'r is maar één PPU en die komt van Ageia.
'n GPU is geen PPU.

'n chip is geen Kaart. Dus 'n G-kaart met GPU kan je gebruiken als Physics kaart. Die chip daarop is nog steeds een GPU.
Men noemt dit GpGPU gebruik.
Je kan ook ande dingen er mee doen.

Foldong home
Video encoden
FHPU?
VidPU ?
Nee GPU.

ALs ze de Video uitgang er afhalen dan is het 'n GPGPU kaart. Met 2 GB.

@XG
Dat van AMd komt in 2010. Ik kijk eerder wat er binnen 6 tot 1jaar uit komt. En gebruik voor de komende 3 jaar.
Maar wat moet je met een GPGPU kaart met 2GB zonder video uitgang?

De reden dat er zoveel geheugen op game-kaarten zit is dat er idioot veel textures geladen moeten worden.
Maar dat is typisch een vereiste voor spellen.

Welke applicaties gebruiken nog meer zoveel geheugen??
Het is niet nodig voor folding@home.
Ook niet nodig voor video encoding. (een totale video is wel groot, maar voor het encoding heb je steeds maar een paar minuten nodig)
physics heeft ook maar weinig geheugen nodig.

Iemand suggesties wat dan wel van die 2GB gebruik zou maken?
Misschien voor de patsers ;)
'n Nieuwe markt voor Proffesioneel GPGPU gebruik.
Alleen weet ik niet of ze de video uitgang weg laten.
MAa rals dat zo is dan zal het net als een Quadro/GL kaart. erg veel gaan kosten.

Misschien kom er eerst 'n G-kaart uit met 2GB om de markten te overbruggen en ook als een meer directe concurerent produkt tegen de PhysX kaarten.
Zeg eh... beetje cryptisch hoor (en met typfouten), wat je daar allemaal typt... Wees aub duidelijk of post niks.

Persoonlijk boeien mij deze ontwikkelingen niet enorm. Alles wordt sneller, groter enzo... da's al heel lang zo. Ik vind dat je niet moet zeuren over maat (die inderdaad nogal idioot zal worden als ik dit zo lees) en stroomverbruik zo lang je ook de mogelijkheid hebt voor andere kaarten te kiezen.

Het op andere manier inzetten van CPU en GPU zijn wel echte ontwikkelingen, ik ben benieuwd wat op de markt gaat komen op dat vlak. We gaan het vanzelf merken.
De 7950GX2 heeft ook 1 gig geheugen. Wel jammer dat de kaarten steeds langer worden ja. Wordt tijd voor kortere kaarten. Ik weet wel zeker dat mijn volgende behuizing een big-tower word. Wil geen gezeur meer met kaarten die niet passen. Die x2x00 XTX gaat zo niet passen bij mij. Alleen als ik het onderste hd-rack eruit sloop. |:(
In de 32MB tijdperk had de Voodoo 6000 ook 128Mb.
Maar dat is effectief ook maar grof gezien 32MB.
Omdat elke VSA100 'n Texture kopie nodig heeft in zijn eigen memory pool.
Dit geld nog steeds met nV SLI ook.

Dus die 1GB is eigenlijk maar 512MB waard maar je betaald voor 1GB.

Die 2GB is dus ook effectief 2GB en is dus effectief 4 maal zoveel als die GX2

SLi Cf is ene Memory verkwisting methode.
Misschien dat het zoveel geheugen heeft om eventuele toekomstige PhysX effecten ook erin te laden? Daarnaast weten wij nog steeds niet hoeveel geheugen DX10 nou werkelijk gebruikt. DX9 gebruikt niet zoveel, maar 10 misschien wel.

Het gaat namelijk om Real-Time effecten. Ik heb gelezen dat iets zoals rook ook direct interactief is met de omgeving, en niet voorgerendeerd zoals in DX9. Ook reflectie van licht in regen is zichtbaar in DX10. Er zullen ook dingen zijn in RPG's zoals planten die na een tijd groter worden. Dat is ook niet voorgerendeerd maar ook "real-time". Weet echter niet hoe betrouwbaar dit is, ik heb het ook maar gelezen, maar als het klopt, dan kan ik me wel voorstellen dat je veel geheugen zal nodig hebben. Meer dan 512 in ieder geval.
Misschien dat het zoveel geheugen heeft om eventuele toekomstige PhysX effecten ook erin te laden?
Zelfs met een miljoen objecten zit je maar aan een paar megabyte...
Daarnaast weten wij nog steeds niet hoeveel geheugen DX10 nou werkelijk gebruikt. DX9 gebruikt niet zoveel, maar 10 misschien wel.
Niet meer en niet minder. De grootste hoeveelheid geheugen gaat naar de textures, en het is vooral de applicatie die bepaalt hoeveel er geladen worden. De formaten van DirectX 10 komen bijna volledig overeen met die van DirectX 9.

Er was een soortgelijke discussie toen kaarten met 512 MB geheugen verschenen, maar nu zijn ze standaard voor de high-end. Dus binnen een paar jaar is 1 GB ook niet meer zo ongewoon.
Games die efficient met dual-core / multi-core overweg gaan, dan is de CPU opeens echt de bottleneck niet meer. (Vergeet niet dat mensen die twee van deze monsters kunnen kopen ook wel een Quad-FX of X6800 zullen kopen.)
Vergeet niet dat een tweaker liever een E6600 koopt om deze vervolgens te overclocken en zo geld te besparen om zijn dure grafische kaart te bekostigen ;)
Bovendien verkoopt 1gb een stuk lekkerder dan 768mb, bovendien denkt de gemiddelde mens nogsteeds dat geheugen de snelheid van je videokaart bepaalt.
"...zoals planten die na een tijd groter worden."

Is dat niet het gebruik van "geometry instancing" of "procedural geometry" ? Een enkele hoge definitie object van waaruit vele dezelfde objecten realtime gegenereerd kunnen worden maar wel met verschillende groottes en misschien ook wel enige variatie.

Weet wel dat (procedural) geometry instancing ondersteund wordt door zowel de Xbox360 en de PS3. Heb de processorarchitectuur van de Xenos gelezen op een IBM internet site en de bandbreedte tussen de processorcores en het geheugen heeft als requirement dat het procedural geometry moet ondersteunen = voldoende bandbreedte hebben.

Ben benieuwd wanneer we dat kunnen gaan bewonderen in de spellen.

De consoles kunnen veel meer dan DX9!
physx effecten worden gerenderd door een heel ander soort CPU en niet door een video GPU
Ik heb het een beetje gehad met de "kijk wij hebben de snelste kaart" gekte.

Doe mij maar eens een kaart waarme je prima kan gamen maar die je niet verplicht tot een megavoeding en alle dingen die daarbij komen kijken.

Waar blijven de energiezuinige kaarten?
Energiezuinig?

In dx9, nvidea van hoog naar laag

6800ultra 110W
7800gtx 95W
7900gt 85W

Wat ik hiermee wil zeggen.
Ik denk dat de kaarten nu veel verbruiken omdat het een net nieuwe ontwikkeling is met dx10.

De high end opvolger van de 8800gtx zal naar mijn schatting minder gaan verbruiken.
En toch beter presteren.....

Uiteraad gaat bv een 8600gt minder verbruiken dan b.v een 8800 maar ook de opvolger (8900?) zal dus zuininger worden, bij dx9 ging het ook van hoog naar laag bij uitkomst nieuwe modellen. Alleen bij overgang naar een nieuwe dx stijgt het verbruik weer.
"Waar blijven de energiezuinige kaarten?"

Die zijn er al in de vorm van onboard graphics. Wanneer je top notch graphics wil, heeft dat een prijs(zowel in aanschaf als in verbruik).
Ik denk dat die wel na deze genaratie kaarten komen.

Eerst snelheid, dan optimaliseren en zuiniger maken. Was met de G71 ook zo. Het was zo'n beetje dezelfde core als de G70, maar dan sneller, minder transistors en energiezuiniger en koeler.
Wat voor cpu heb je hier bij nodig? Een e6600 kan net bij een 8800GTX, als deze nog sneller is, aan wat voor cpu speeds moet je dan denken? Een e6600 op 3.6Ghz? Of nog meer?
DirectX 10 is heel wat CPU-vriendelijker.
Games die efficient met dual-core / multi-core overweg gaan, dan is de CPU opeens echt de bottleneck niet meer. (Vergeet niet dat mensen die twee van deze monsters kunnen kopen ook wel een Quad-FX of X6800 zullen kopen.)
Wel slim om er meteen 4 uit te brengen daar zal toch een meer betaalbare tussen zitten neem ik aan
maar 30 cm is teveel !!
ik heb net een gemeten en ik moet de zaag erin zetten wil ik dat kwijt kunnen, dat zal wel voor veel kasten gelden en een harddisk op die hoogte kan ik helemaal wel vergeten.
Vraag me ook af hoe dat met de airflow in de kast zit als er een groot gedeelte van het onderste gedeelte van dekast word afgeloten bij mij zit er een namelijk iets van de chipset onder :?
Dat de R600 de naam X2x00 ging dragen was wel enigszins te raden, niet?

Maar 30 centimeter lang?! Ben benieuwd in hoeveel kasten die gaat passen dan.. niet in de mijne in ieder geval.
ach maar 2cm langer dan de 8800...
Maar inderdaad het stoort wel dat die grafische kaarten steeds langer worden..Het zou eigenlijk een standaard moeten worden dat ze niet langer mogen worden dan een ATX bordje...maarja :Z
Er IS een standaard die bepaald hoe lang ze mogen worden. Punt is echter dat de meeste ATX borden niet zo groot zijn als de standaard toe laat en dat de meeste ATX-kasten dat ook niet zijn.
ATX is 30 lang en 25 diep. Dus deze gaat er overheen...
De ATX-standaard specificeert Full Length als maximale kaart lengte hierbij verwijzende naar de standaard voor de betreffende uitbreidingssloten.

Hierbij wordt verwezen naar de Full Length van de standaard voor de betreffende slots. Voor PCI-Express/PCI-X/PCI is Full Length 312mm. Kortom, deze kaart is nog steeds korter dan de maximale lengte welke gespecificeert is in de standaard.

ATX-mobo maten zjin 305mm bij 244mm. Maar dat sluit niet uit dat kaarten niet langer mogen zijn volgens de ATX-standaard (Die ook voor ATX-kasten opgaat).
Heb je tenminste het idee dat je ook echt 'wat kaart' krijgt voor je geld...
Vond het altijd toch raar als je veel pieken neerlegt voor zo' n klein prutskaartje... dat je denkt 'is dit het nou?'.
Tja en binnen een paar jaar leg je dan de Radeon X2900 naast een gelijk presterend low-end kaartje van die tijd en denk je "was dat nu nodig"? :+
Zei m'n vriendin ook bij de eerste keer. Uiteindelijk is ze er heel gelukkig mee!
Dat is meestal alleen in het begin. Daarna merk je dat het alleen maar nadelen heeft.
Als je ervover wilt praten kun je hier terecht: http://www.lpsg.org/
wat n geluk :P... ik heb n maand of 2 geleden een eATX case gekocht... ik was gewoon aan het wachten op die X2"8"00 XTX :P
Dan neem je toch de XT die is veel kleiner wel iets langzamer. Maar ik hen dat probleem ook. ALS hij zo lang wordt moet ik ook voor de XT gaan. Maar misschien klopt er niets van en is de XTX ook 9".
1 GB geheugen zal ws. wel nodig zijn om de nieuwste generatie DX-10 games met bvb. de 2e generatie Unreal en Cry-engine op HD-monitors te draaien met AA, AF en alle eye-candy. Flight Simulator X zal ook massa's geheugen nodig hebben op max.

De meesten die een kaart kopen van 500¤ willen deze kaart minimum 3-4 jaar houden en tegen dan zullen er nog veel zwaardere games zijn.

Ik ga me over een half jaar ws. een nieuwe pc kopen icm met een 30" monitor van 2560*1600. Samen met die PC ga ik ook Flight Simulator X (DX-10) kopen en aangezien ik graag alles op max zet aan een hoge framerate vrees ik dat zelfs deze kaart het moeilijk zal hebben.
Neem je er toch twee in crossfire? Aangezien geld niet echt een probleem lijkt te zijn voor jou...
Misschien 2 midrange-kaarten in SLI/Crossfire, maar meer dan 600-700¤ wil ik er niet aan geven.
En een 30" scherm kan er dan wel vanaf? Die volg ik eventjes niet...
@ Cubefanatic:

Een monitor dient langer mee te gaan dan een grafische kaart (laatste is snel verouderd) en een monitor dient bij mij niet enkel om te gamen, maar ook om TV te kijken, DVD's te bekijken, enzovoort. Vandaar het verschil in wat ik er wil aan geven.
1gb is nog vette overkill. Zelfs resoluties over de 2000 hebben genoeg aan 512mb...

En dat in xfire... :+
Flashback: "640KB is genoeg voor iedereen!" - Bill Gates...
Bloomberg Business News interview met Bill Gates:

QUESTION: I read in a newspaper that in 1981 you said, "640K of memory should be enough for anybody.'' What did you mean when you said this?

ANSWER: I've said some stupid things and some wrong things, but not that. No one involved in computers would ever say that a certain amount of memory is enough for all time.

The need for memory increases as computers get more potent and software gets more powerful. In fact, every couple of years the amount of memory address space needed to run whatever software is mainstream at the time just about doubles. This is well-known.

When IBM introduced its PC in 1981, many people attacked Microsoft for its role. These critics said that 8-bit computers, which had 64K of address space, would last forever. They said we were wastefully throwing out great 8-bit programming by moving the world toward 16-bit computers.

We at Microsoft disagreed. We knew that even 16-bit computers, which had 640K of available address space, would be adequate for only four or five years. (The IBM PC had 1 megabyte of logical address space. But 384K of this was assigned to special purposes, leaving 640K of memory available. That's where the now-infamous ``640K barrier'' came from.)

A few years later, Microsoft was a big fan of Intel's 386 microprocessor chip, which gave computers a 32-bit address space.

Modern operating systems can now take advantage of that seemingly vast potential memory. But even 32 bits of address space won't prove adequate as time goes on.

Meanwhile, I keep bumping into that silly quotation attributed to me that says 640K of memory is enough. There's never a citation; the quotation just floats like a rumor, repeated again and again.
Het geheugen gebruik is nauwelijks afhankelijk van de resolutie...

Het gaat vooral om de grootte en hoeveelheid textures die gebruikt worden in een level. En dat is dus totaal niet gerelateerd aan resolutie, maar gewoon aan hoe mooi (en afwisselend) een omgeving eruit komt te zien.

Je kunt een grasland maken door 1 kleine texture 100 maal te kopieren. Of je kunt 1 grote texture nemen. Op dit moment wordt meestal zo'n 100x kleine texture gebruikt, maar in bijvoorbeeld Oblivion is dat soms erg duidelijk zichtbaar wanneer je van grote afstand naar zo'n gebied kijkt.
Maar de 7950 GX2 bezit 2 keer cores die ieder over 512 MB beschikken. Ik vraag me af hoeveel stroom deze kaarten gaan verbruiken, en dan vooral de niet beste variant, aangezien die op prijs/prestatie gebied niet echt aantrekkelijk zijn ;)

Hopen dat er een soort van X2950 pro komt over een tijdje hehe :Y)
Zou in het begin al moeten komen. Er komen 4 versies waarvan UFO de goedkoopste is deze heeft ook GDDR 3.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True