Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 69 reacties
Bron: Tech Report

The Inquirer heeft geruchten opgevangen dat zowel nVidia’s G80 als ATi’s R600 vertraging hebben opgelopen. Oorsponkelijk was het de verwachting dat nVidia de G80 in september of oktober zou introduceren en de ATi R600 zou aan het einde van dit jaar in de winkelschappen verschijnen. Nu zal de nVidia G80 waarschijnlijk eind oktober geļntroduceerd worden om in begin november in de winkelschappen te verschijnen. ATi’s R600 zal pas in 2007 geļntroduceerd worden waarmee nVidia een voorsprong van drie maanden krijgt wat betreft het aan de man brengen van de eerste DirectX 10-hardware.

Tegelijkertijd met het nieuws over het uitstel van de nieuwe gpu's heeft The Inquirer enkele opmerkelijke details over de architectuur van de G80 genoteerd. De G80 zou een geheugenbus krijgen met een bandbreedte van 384 bit, een bijzonder getal in de computer-wereld waar machten van twee de dienst uit maken. Tevens zou de G80-chip ongeveer 400 vierkante millimeter groot worden waarbij circa 33 procent gebruikt wordt voor DirectX 10-functionaliteit. Desondanks wordt verwacht dat de chip voornamelijk sterk zal presteren in DirectX 9-benchmarks en dat de R600 de grootste DirectX 10-spierballen zal hebben.

nVidia en ATi logo's
Moderatie-faq Wijzig weergave

Reacties (69)

Beetje gemengde gevoelens. Wat is nu slim (er van uitgaande dat de laatste zin van het artikel waar is), de 'uber' DX9 kaart halen, of 'alvast de beste' DX10? Als benchmarks dit ook inderdaad gaan uitwijzen wordt het best een dilemma.

En de vertraging is natuurlijk helemaal niemand blij mee. I, for one, ben zwaar benieuwd naar XP+DX9 vs Vista+DX10 (met zelfde spel, crysis ofzo). Daar gaat toch aardig wat budgettering op aangepast worden hiero...

(aan de andere kant, de 1900XT begint wel ernstig goedkoop te worden nu.. misschien geen gek idee om dat maar even te nemen dan)

/edit: aanvulling op hieronder; op gamer.nl (geloof ik) stond een preview-artikel waarin stond dat de dx10 versie van crysis wel degelijk meer pracht en praal op scherm zette...
ik doe ff een wilde voorspelling, kwa graphics ziet DX10 er niet beter uit.
je kan mischien 10% meer shading verwachten maar dat is het dan ook well geweest.

je maakt van een vertex shader ook een pixel shader, en dan heb je geen dedicated pixel shaders meer dus zal het pixel/vertex shader gedeelte een stuk trager zijn.
je maakt van een vertex shader ook een pixel shader, en dan heb je geen dedicated pixel shaders meer dus zal het pixel/vertex shader gedeelte een stuk trager zijn.
umm nee, dat een apperaat 2 dingen kan wil niet persee zeggen dat hij dat altijd slechter kan als 2 lossen apperaten.
zeker in dit geval niet omdat beide shaders een hoop de zelfde handelingen hebben.

ipv dat je ruimte moet reserveren voor aparte pixel en vertex shaders kan je dat in 1 ruimte stoppen en kun je die ruimte voor 100% voor pixel shaders gebruiken of 100% voor vertex shaders, en alles daartussen in op het moment dat je het nodig hebt.
je hele shader engine word dan dus altijd optimaal benut ipv dat een deel ervan werkeloos zit toe te kijken terwijl het wacht tot het andere deel klaar is.

concreet op de chip betekend dat dus meer shaders in minder ruimte (goedkoper, stroom efficienter), of gewoon meer shaders in totaal (sneller).

verder heb ik een stuk meer vertrouwen in DX10 als jij duidelijk.
ze zijn van de grond af opnieuw begonnen en hebben dit keer een veel efficientere en flexibele argitectuur opgezet.
op graphics gebied zijn de veranderingen niet zo spectaculer als toen de eerste shaders in games verschenen misschien maar achter de schermen is er een hoop veranderd en zou dat voor een hele hoop mooie effecten moeten gaan zorgen in games.
ik doe ff een wilde voorspelling, kwa graphics ziet DX10 er niet beter uit.
Idd een wilde voorspelling. Er klopt namelijk weinig van.

DX10 biedt wat graphics-mogelijkheden betreft een aantal interessante features. De unified shader architecture impliceert dat je in je vertex shaders data uit textures kunt halen, en dat je in je pixel shaders data uit vertices kunt halen. Daarnaast heb je de mogelijkheid tot memory exports, waarmee je vanuit de shaders vertex- en pixeldata kunt schrijven. Door deze operaties ontstaan er mogelijkheden die voorheen niet of nauwelijks te doen waren.

En dan is er nog de geometryshader (en een aantal componenten daaromheen), die een taak overnemen waar momenteel de CPU voor gebruikt wordt, namelijk het klaar zetten van de vertex buffers en bijbehorende renderstates. Hoewel dat laatste niet echt iets toevoegt aan wat momenteel mogelijk is, zorgt het er wel voor dat het allemaal een stuk sneller kan verlopen waardoor meer van deze graphische pracht en praal in games gebruikt gaat worden. Dit is een beetje hetzelfde verhaal voor het hele vernieuwde driver systeem en de verdunning van de lagen achter de API, waardoor de boel er sowieso een stuk sneller op wordt.
"De unified shader architecture impliceert dat je in je vertex shaders data uit textures kunt halen, en dat je in je pixel shaders data uit vertices kunt halen."

Wat je hier schrijft is niet echt juist.

DX10 specifieert wel een unified instruction set en DX10 laat ook toe om veel flexibeler om te gaan met extern geheugen, maar deze twee features zijn orthogonaal tov elkaar en hebben per se eigenlijk niets met elkaar te maken. Kortom, het ene impliceert niet automatisch het andere.

Het is overigens ook niet zo dat een pixel shader zomaar vertex data kan lezen en schrijven en omgekeerd. (Een redelijk courante misvatting.) In het conceptuele diagram van DX10 blijven de address spaces van deze twee (of 3 als je GS meerekent) gescheiden. De enige manier in de pipeline waarmee data tussen VS en PS wordt overgedragen is via de attributes. Dat is ook niet verwonderlijk: de pixels worden nog altijd individueel gecreerd tijdens de raster operatie.
Euh, een unified instructieset impliceert juist dat je in vertexshaders ook texels kunt fetchen en dat je in pixelshaders vertices kunt fetchen, omdat daar specifieke instructies voor zijn.

Ook zei ik alleen dat je de mogelijkheid hebt om te schrijven. Dat jij de aanname maakt dat ik bedoelde dat je de data die je in de vertexshader geschreven hebt weer in de pixelshader kunt lezen (of zelfs in dezelfde shader maar op een andere instantie) klopt gewoon niet, ik weet namelijk dat dat niet kan. En op de xbox360 maken we al volop gebruik van deze feature, aangezien memory exports daar al ondersteunt worden (net als de USA overigens).

Dus als je voortaan posts wat beter leest en niet allemaal aannames maakt over wat ik wellicht zou bedoelen... :)
en nu de nadelen?
Dat het niet onder XP draait? ;)
en nu de nadelen?
:P

Maar ik denk ook dat mits er een goede arbiter is, de unfied architecture veel beter is.
Bij de het topmodel van nvidia(7950x2)is het zo dat dat de geheugenbus een bandbreedte van 512bit is wat volgens mij betekend 2*256 i.v.b met de 2 cores. Misschien is het zo dat de G80 2 cores utiliseert waarvan een de unified shaders voor dx10 gebruikt en de ander op dx9 gericht is die meer geheugen vraagt i.v.b met de pixel en vertex shaders... het is maar een gedachten spinsel

Edit: Of 2 geheugencontrollers...Als dual-cores cpu's kunnen, waarom dual-core gpu's dan niet? Wilde gedachtten...
lijkt me erg onzinnig en zou veel ruimte kosten op de chip.
zo veel verschil is er niet tussen dx9 en dx10, die kun je makelijk en veel goedkoper bij elkaar in 1 core stoppen.

ook zou het heel onnuttig zijn om 2 cores ieder een eigen geheugen controler te geven met eigen dedicated geheugen als je van te voren al weet dat ze nooit tegelijk gebruikt zullen worden.
en zelfs als ze wel tegelijk gebruikt zouden kunnen worden zou 1 geheugen bus nog beter zijn omdat je dan de bandbreedte kan geven aan de core die het op dat moment het harste nodig heeft.

daarbij is een GPU al multicore.
elke pipeline kan je zien als een apparte core, en die hebben ze ook nooit hun eigen bandbreedte gegeven.
Nee, elk van beide cores heeft daar een 256bits geheugenbus; verder is het gewoon een SLI opstelling in 1 PCIe x16 slot (niet op 1 kaart, want ze hebben wel elk hun eigen PCB). Op een 512-node Opteron cluster heb je toch ook geen 65536bits geheugenbus? ;)
512-bit bus op 1 chip zou ervoor zorgen dat er veel meer banen komen die dichter op elkaar zitten & dan moet het aantal lagen van de pcb omhoog, men zit nu aan 10 lagen en dat is al overdreven veel
De eerste DX9 kaarten waren redelijk zwak in DX9. Ik denk dat het nu bij DX10 weer het geval zou kunnen zijn. Zelf heb ik nu een aardige kaart en denk dat ik maar wacht op de 2e generatie DX10 kaarten.

Maar goed ik kan het ook fout hebben, ik ben zeker benieuwd naar de eerste benchmarks.
Eerste DX9 kaarten zwak? :o
Als je net een 9700 Pro had gekocht, wist je niet wat je zag! (dat waren de eerste kaarten die DX9 features op het beeld konden toveren)
Iets later kwam nVidia met hun inplementatie van DX9, maar die flopte nogal. Prestaties van de FX5800 vielen tegen, en de koeler was erg luidruchtig.
Nog steeds zijn 9700 en 9800 Pro's nog erg gewild in V&A. :)
klopt maar als je met een 9700pro bijvoorbeeld fear wilt gaan spelen moet je de shaders toch echt niet te hoog zetten of hij kruipt vooruit.

de 9700pro was zeker niet zwak, heb er zelf ook meer als 2 jaar plezier van gehad, (en hij werkt nu nogsteeds uitstekend in mijn broertjes PC) en in dx8.1 zijn ze idd erg sterk.
maar bij DX9 games die merk je toch dat hij het zwaar heeft met sommige stukken (zeker met veel shaders erin)
moet wel zetten dat hij dx9 wel goed bruikbaar is, en dat kon je niet altijd zeggen van een eeste generatie nieuwe DX kaarten.
Je vergeet gemakshalve wel dat er toendertijd nog geen SM3.0 en nog maar net SM2.0 was, bovendien waren de kaarten toendertijd niet gemaakt voor zoveel schaduw als in FEAR, dat kon toch niet dus waarom het al wel erin stoppen? ;)
Vreemd dat de G80 vooral Dx9 power zal hebben, dan kun je mijn inziens beter wachten op de R600 :+
Ik neem aan dat die aanname voorkomt uit het unified shader vs. seperated shader architecture, ze gaan er erg snel vanuit dat unified shader architectuur per definitie beter is, terwijl dat in werkelijkheid nog moet blijken.
Gegeven dat er grenzen aan de kostprijs van de hardware, ontwikkeltijd en die grote zitten zullen er compromisen gesloten moeten worden. Het is heel goed mogelijk dat NVidia zich bij deze generatie consentreert op performance van DirectX9 en het ondersteunen van alle DirectX 10 features zonder dat er veel aan de performance van die features geschaaft wordt. Als ATI zich dan wel puur richt op DirectX 10 kan dat leiden tot mindere DirectX 9 maar betere DirectX 10 prestaties t.o.v nVidia.

De architectuur hoeft dus niet het verschil te maken maar ook de keuzes van de marketingafdeling op welk deel van de markt de nadruk moet liggen kan doorslaggevend zijn.

Als The Inquirer zo'n verschil in doelstelling heeft opgemerkt is de conclusie vrij logisch en totaal onafhankelijk van welke inschatting van de relatieve prestaties van de onderliggende architecturen..
Of op de stapels directX 10 based games? Die zijn nou ook niet volop aanwezig na de release. Voorlopig moeten we het nog even van de dx9 games hebben.
Een beetje Unreal Tournament speler moet toch wel een DX10 kaartje hebben hoor :P
Oh ja? Unreal Tournament 2004 is anders volledig DirectX 8. Unreal Engine 3 werd al jaren geleden gedemonstreerd op een Geforce 6800. Aangezien Sweeney ook al een tijd bezig is met Unreal Engine 4 vermoed ik sterk dat Unreal Tournament 2007 zich volledig tot DirectX 9 zal beperken. Geen spelproducent is trouwens zo gek om een spel uit te brengen dat enkel goed draait op een compleet nieuwe generatie.
Interview van tim sweeny daar zegt ie toch dat er ook DX10 in komt.
@c0d1f1ed

sar·cas·me (het ~)
1 bittere, bijtende spot

Lees de smile erachter..
EVE-online, een MMOG, gaat hun engine re-designen voor DirectX 10 als ik het me goed kan herrineren.

Ah, hier is een developer blog waar dit vermeld wordt.
Maar zijn er wel CPU's die de nieuwe GPU's gaan kunnen bijbenen? Straks kun je nog een computer bouwen die alleen maar uit GPU's gaat bestaan.
Tuurlijk kunnen die het bijbenen, zolang je de resolutie erop aanpast. Als je 800 x 600 draait is het logisch dat de CPU de bottleneck is, wie gaat er een super kaart ook kopen om op zulke res te spelen?

Videokaarten komen het best tot zijn recht op hoge resoluties (1280x1024 en hoger) en wanneer je nog hoger wilt is begint de graphische kaart de bottleneck te worden en moet je aan oplossingen als SLI denken die uitstekend de FPS kunnen bewaren op hogere resoluties.
Tja dan doet de Conroe het ook goed. Alleen speel ik niet graag op zo'n lage resolutie.
Graw doe ik op 1800X1440.
Natuurlijk, alle moderne cpu's kunnen de nieuwe gpu's wel bijbenen. Het is tegenwoordig zo dat de meest krachtige cpu's niet veel meer bieden ten opzichte van wat minder krachtige cpu's, aangezien de prestaties af gaan hangen van de limieten van de gpu's, ram en harddisk.

Hierbij heb ik het over games, bij database applicaties wordt de gpu nauwelijks gebruikt, daar ligt het weer anders, bij de cpu namelijk.
Mag jij me uitleggen waarom een E6600 nog een bottleneck is voor een 7950 GX2...
Dat is niet geheel correct denk ik hoor. Ik bezit namelijk een 7950 GX2 eb sinds kort een E6600. Hiervoor draaide ik met een AMD 4000+ en bv bij Oblivion alle details op z`n hoogst bij een resolutie van 1920x1200 en hdr + 16x AF. 4000+ gaf gemiddeld 30 frames E6600 @stock geeft 35 frames en E6600 @ 3GHz geeft ook 35 frames. GPU is dus niet echt CPU limited meer. Misschien op hele lage resolutie zonder AF, mja wie speelt er nou zo :7
Oblivibion is de grootste uitzondering in games markt.
Erg grafisch zwaar.
Veel games zijn ook wat CPU afhankelijk in bepaalde mate.
Mensen met een 24" of 30" scherm. Zeg nou zelf, waarom betaal je anders dik 500 ballen voor een graka?
vandaar dat oblivion nog schokt op mijn 4400+ met 7950gx2
Zo'n kaart en dan geen AA aan ... wie speelt er nou zo :?

Ow wacht ... :+

/EDIT : Waarom kan ik nooit fatsoenlijk reageren op wie ik wil als ik reageer op iemand als ik niet ben ingelogd ... grr |:(
Oblivion is niet meer de grote uitzondering.

Zo ongeveer elk spel wat de laatste 6 maand is uitgekomen is zo zwaar.

Maar als je alleen maar sites bezoekt die nog steeds Doom3, HL2 en Farcry als moderne benchmarks zien, tja DAN lijkt het alsof Oblivion de grote uitzondering is.
Offff... een ingebouwde PPU (Physics Processing Unit) :P het is maar een gedachte spinsel. (nu we het toch over mogelijk meerdere cores hebben...)
dx9 kaarten zijn al in te zetten als PPU's
dx10 kaarten zijn daar nog veel geschikter voor onderander vanwegen de verhoogde programeerbaarheid van de GPU's en vanwegen de verhoogde efficientie van DX10 zelf zodat een kaart minder overhead heeft.
Maar dan is het toch goed mogelijk dat ze er nu eentje aan de physics toewijden, dat gebeurde nu nog niet, zelfs niet met behulp van sli. Tenminste voor zover ik weet doet de cpu nog het meeste fysische berekeningen of zit ik er nu helemaal naast...
klopt, maar als ze er eentje aan ppu toeweiden is hij nergens anders meer voor te gebruiken, of dat zou veel te weinig kunnen zijn waardoor hij weer een bottlenekzou kunnen vormen.

verder moet de het spel de techniek (of iniedergeval de physics engine die door de GPU word gebruikt) ook ondersteunen en benutten.
in een volgende dx versie denk MS er wel aan om physics op te nemen in de API van DX, bij deze versie hebben ze dat nog niet gedaan.
@countless
Nee ze gaan GPU inzetten als PPU. Het kan nu nog niet. Omdat daar de games nog niet voor zijn. Ik denk op zijn vroegs in begin 2007 1 of 2de quartaal.
Havok FX games heb je ervoor nodig.

Terwijl ik hier al 3 PhysX games heb liggen.
Er een JTF deze maand uit komt
CF:R eind dit jaar
en UT2007 begin volgend jaar.

PPU loopt met zijn plan uivoering wat voor op het GpGPU idee. En Dev support is goed.

Voor Physics GPU zal eerst d eDev support daarvoor moeten groeien aangezien de FX in Havok FX extra geld kost. Boven op Havok. Zal het niet zo storm lopen.
met wat aanpassing van de code en eventueel de drivers van de vid kaart is elke physics engine wel te draaien op een GPU.
als de makers van de game er een patch voor uitbrengen ben je eigenlijk al klaar.
zodra dat gebeurt kan iedereen daar gelijk van gebruik maken, zonder dat ze een (toch wel vrij dure) PPU moeten kopen.
het geld dat ik daarmee uit spaar geef ik liever uit aan een betere GPU.
384 bit = 256b + 128b
Dat zal wel te maken hebben met de opbouw
nee 256bit is te weinig 512 is heel fijn alleen 'n zeer complexe PCB is dan nodig. Tja dan schaal je wat minder extreem 3*128
Uiteraard heeft het met de opbouw te maken. Wat anders?

Mijn gok is dat het niet als 256 + 128 gebruikt wordt, maar gewoon echt parallel.
En dat er 24 of 48 unified shaders zijn.
(Ja, dat past weer mooi elkaar dan).
zelfde met het geheugen in mijn pc, RDram moest in paren geinstalleerd worden, dus 2x256 en 2x 128= 768MB RDram
als ie maar goed speelt toch?
En hopelijk worden die nieuwe serie kaarten weer wat minder warm... waardoor er een minder luide koeler op kan, of zoiezo een minder luide koeler als default model... waarom kan de Arctic Coolin Accelero X2 de videokaart beter koelen dan stock, en is die nog compleet stil ook? terwijl de x1900xt standaard een stofzuiger is :? (onder load dan, idle is die alsnog hoorbaar maar niet superhard)...
Tja daarvoor is er de midrange voor. Zijn dus zuiniger.
Jij moet nog jong en naief zijn. :)

Bij het uitbrengen van een nieuw topmodel met een nieuwe architectuur wil geen van beide fabrikanten het risico lopen om trager te zijn dan de andere en dus gooien ze alle registers open. Power optimizatie is dan minder van belang dan pure kracht. Power wordt pas belangrijker bij latere evoluties.
De laatste geruchten lijken dat te bevestigen. (300W?) Dat gezegd zijnde: die beestjes zullen in eerste instantie toch onbetaalbaar zijn...
Zorg gewoon dat je een Aerocase Condor of een Zalman VF900Cu krijgt.. klaar.

In tussentijd wacht ik nog op een ubercooler van scythe a la Scythe Ninja....Dan word alles passief..:D:D
Jullie kunnen toch allemaal slecht lezen he?

Hij hoeft helemaal geen VF900 te krijgen, aangezien ie al een Accelero X2 heeft. (de grote concurent van de VF900, die bovendien maar de helft van de prijs is)

Als je bedenkt hoe goedkoop een retail X2 is, dan is het onbegrijpelijk dat ATI dat ding niet als stock cooler heeft gebruikt.
Met name als je beseft dat die X2 ook nog eens minder weegt dan die stock cooler.
tja of het nou wijsheid is om gelijk een DX10 kaart te halen als ze gereased zijn,
ik denk dat er mooie demo'tjes bij zitten die demonstreren wat DX10 allemaal kan, maar tegen de tijd dat er daadwerkelijk DX10 games uitkomen is de kaart al weer verouderd.
Dat hoeft niet.

Bij de 9700Pro en DX9 was dat niet het geval.

De reden: Developers zaten te springen om de nieuwe mogelijkheden van DX9.

Nu hoeft het ook niet het geval te zijn. De reden:
DX10 is veel efficienter dan DX9, want een reden kan zijn voor developers om zich er op te richten.
Verder heeft geeft een unified architecture weer mogelijkheden die tot nu toe niet konden.

Ik denk dat de kans best groot is dat die R600 net zo goed op de toekomst voorbereid is als de R300.

Maar ja, zeker weet je het natuurlijk nooit.
De G80 zou een geheugenbus krijgen met een bandbreedte van 384 bit, een bijzonder getal in de computer-wereld waar machten van twee de dienst uit maken.
3 * 2^7 =
3 * 128 =
384 :?
Ja dat klopt maar in pc land zijn de de volgende getallen van toepassing.

1
2
4
8
16
32
64
128
256
512
en ga zo maar door, en 384 word eigelijk niet gebruikt. ;) 384 is echt een buitenbeentje.
12 x 32bit, 32bit is namelijk de width van GDDR3 en 4. Vraag is vooral hoeveel geheugen er dan op de kaarten komt te zitten en hoe ze dat gaan marketen :)
Maar feit blijft dat 384 geen macht van 2 is :).
Nou, vooruit dan toch maar: 2^8,5849625007211561814537389439478 = 384. Ongeveer dan, he.

Edit: kunnen we nu deze hele draad naar beneden modden, por favore? Zo bijzonder zijn busbreedtes die geen hele machten van twee zijn nou ook weer niet.
eerder (8+4)x 32-bit, aangezien 1/3 voor DX10 reserved is en 2/3 voor DX9 en lager, lijkt me dit aannemelijker
Ik had vroeger ook 384 MB in m'n pentium 2 PC zitten, dus zo gek is het niet, gewoon 128+256

2x256 (512) zal nog wel te duur zijn met PCB routing en aantal pinnen voor de chip
Het gaat hier om het aantal bits bandbreedte van de geheugencontroller, niet om het aantal MB's geheugen wat op de kaart zit ;)
Nee maar dat bedoelt ie ook niet denk ik, 384 vind ik niet zo'n vreemd getal in de PC wereld, die kom je wel vaker tegen.
zal wel met het aantal baantjes op de pcb te maken hebben
256bit-bus was kennelijk te weinig/bottleneck, 512bit-bus was waarschijnlijk te duur om commercieel te produceren, dus de middenweg :)
Tja gewoon 'crossbar mem controler' van 12* 32bit
De macht van twee slaat meer op die 32bit in 'n 'bar' dan heoveel 'bar's' er zijn.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True