Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 68 reacties

Nvidia zou de Geforce 9800GX2 en de dinsdag geÔntroduceerde 9800GTX in het derde kwartaal van dit jaar vervangen door respectievelijk de Geforce 9900GTX en de Geforce 9900GT.

Beide nieuwe kaarten zijn gebaseerd op de nieuwe GT200-architectuur, die de huidige G92-gpu moet gaan vervangen. Volgens Vr-zone toont de beslissing om de Geforce 9800GX2 te vervangen door de Geforce 9900GTX aan dat een kaart met een enkele GT200-core sneller is dan een model met twee G92-gpu's. De GT200 zou wel groot zijn en veel energie opslurpen, en Nvidia zou veel moeite hebben de gpu op de pcb te positioneren. Aangenomen wordt dan ook dat de GT200 nog steeds op 65nm gebakken wordt, hoewel in juni de op 55nm geproduceerde variant van de G92-gpu het levenslicht moet zien.

Eind vorige week staken al geruchten de kop op over specificaties van de GT200. Deze zou volgens een posting op het Chinese forum Itocp over 200 shader processors en een 512bit 'crossbar bus' beschikken, waarbij niet geheel duidelijk is wat met de term 'crossbar' bedoelt wordt. Ook zou een overstap naar 200 shaders betekenen dat Nvidia voor zijn nieuwe telg geen gebruik meer maakt van clusters van 16 zoals bij de G9x- en G8x wel het geval is, zo wijst Nordichardware er op.

Moderatie-faq Wijzig weergave

Reacties (68)

Alweer een Nvdia grafischekaart aangekondigd :P , sjees de 9800x2 in net in de verkoop en ze komen alweer met een 9800GTX :P

Waar ik mij aan stoor is het stroomverbruik, pc's zijn alleen maar dure gebruikers aan het worden, bedoel 450Watt is algemeen normaal wat 5jaar geleden op 350Watt bedroeg.
Met de Highend pc's zitten we al op 500 a 600Watt opgenomen onder load , oke wie wat snels wil zal ook voor het gebruik moeten betalen.
Ik meende ooit eens gehoord te hebben dat pc's juist zuiniger moeten worden, toen die tijd had je een Green Energy logo op je pc of monitor.
Proccesor zijn er ook niet echt zuiniger op geworden, de snelheid is weliswaar toegenomen en wattage is niet veel hoger dan 3 a 4 jaar geleden.
ik weet nog wel de tijd dat je proccesor 45 tot 55Watt max load slurpte, maarja dat wat de pentuim 1 en 2 tijdperk :p
grafische kaarten in die tijd lagen tussen de 25Watt en 40Watt verbruik , ongeloofelijk
als je daar nu aan terug denkt, je had aan een 200 tot 250Watt voeding nog power over :)

maar daarom vraag ik mij wel eens af waneer ze weer de pc's zuiniger gaan maken met toch steeds meer performance.
Dit geld voor grafischekaarten eigelijk het zelfde, het is niet leuk om straks weer extra stroom te moeten gaan bij betalen op je eindjaars nota van je energieboer toch ?

Maar we gaan de spec's en benchmarks maar eens afwachten , Nvdia roep wel vaker eens wat..
Alweer een Nvdia grafischekaart aangekondigd :P , sjees de 9800x2 in net in de verkoop en ze komen alweer met een 9800GTX :P
Het zijn beide kaarten die in een ander segment spelen. Meer keuze is toch goed?
Waar ik mij aan stoor is het stroomverbruik, pc's zijn alleen maar dure gebruikers aan het worden, bedoel 450Watt is algemeen normaal wat 5jaar geleden op 350Watt bedroeg.
Met de Highend pc's zitten we al op 500 a 600Watt opgenomen onder load , oke wie wat snels wil zal ook voor het gebruik moeten betalen.
Ik zal je even uit een droom helpen: high end pc's zullen nooit energiezuinig worden, daarom dat ze ook high-end genoemd worden. Maar dat betekent niet dat er geen energiezuinige pc's zijn. Er zijn momenteel pc's die even zuinig zijn als de pc's van vroeger maar dan met vele malen betere prestaties.
Ik snap dat gemekker over energiezuinige pc's niet, ze bestaan in overvloed maar dat is blijkbaar niet genoeg. Alle high-end pcs moeten dat ook voor jullie zijn. Wel, een ferrari zal ook nooit minder dan 10L/100km verbruiken. Leer er mee leven.
Ik meende ooit eens gehoord te hebben dat pc's juist zuiniger moeten worden, toen die tijd had je een Green Energy logo op je pc of monitor.
Proccesor zijn er ook niet echt zuiniger op geworden, de snelheid is weliswaar toegenomen en wattage is niet veel hoger dan 3 a 4 jaar geleden.
ik weet nog wel de tijd dat je proccesor 45 tot 55Watt max load slurpte, maarja dat wat de pentuim 1 en 2 tijdperk :p
grafische kaarten in die tijd lagen tussen de 25Watt en 40Watt verbruik , ongeloofelijk
als je daar nu aan terug denkt, je had aan een 200 tot 250Watt voeding nog power over :)
Er bestaan genoeg grafische kaarten die slechts 25-40W verbruiken momenteel en bovendien presteren ze nog eens veel beter dan die oude kaarten naarwaar je verwijst. Nogmaals ik snap je gemekker niet, er bestaan nu grafische kaarten die quasi niks verbruiken en er bestaan er ook die enorm veel verbruiken. Voor elks wat wils dus.
maar daarom vraag ik mij wel eens af wanneer ze weer de pc's zuiniger gaan maken met toch steeds meer performance.
Dit geld voor grafischekaarten eigelijk het zelfde, het is niet leuk om straks weer extra stroom te moeten gaan bij betalen op je eindjaars nota van je energieboer toch ?
Lees hierboven, er bestaan zuinigere pc's en grafische kaarten genoeg, maar die zullen nooit high-end zijn.
Maar we gaan de spec's en benchmarks maar eens afwachten , Nvdia roep wel vaker eens wat..
Dit komt niet van NVIDIA.

[Reactie gewijzigd door aval0ne op 2 april 2008 08:01]

Maar dat betekent niet dat het stroomverbruik voor die high end PC wel bijna moet verdubbelen in vijf jaar. En waar zitten we in 2012? 1000 Watt als standaard PSU?.

Ik dacht dat technologische vooruitgang ook inhield dat het stroomverbruik op min of meer hetzelfde peil word gehouden. De moordende concurrentie in de Hardware sector zorgt ervoor dat men geen oog heeft voor dit soort dingen omdat de consument dat ook nog niet heeft.

Maar er zal eens een grens liggen. Bij mij komt een 1000 Watt PSU er iig niet in.
Helemaal mee eens. nVidia probeert het dus nog eens op de ''meer shaders, transistors, pipelines & watts'' manier. De manier van ATi staat me veel meer aan. Hoewel ik wel denk dat voor dezelfde performance bij ATi (multi GPU oplossingen) je vast niet veel minder energie verbruikt dan bij een enkele GT200.
nVidia probeert het dus nog eens op de ''meer shaders, transistors, pipelines & watts'' manier. De manier van ATi staat me veel meer aan.
Wat is de andere ATI manier dan? Volgens mij is R600 (en afgeleiden) gewoon een poging om heel veel transistors op een kaart te douwen en daardoor veel performance te krijgen. Helaas werkte het niet en was G80 met minder transistors en minder stroomverbruik een heel stuk efficienter. ATI wist de schade te beperken door naar 65 en later 55nm over te stappen, maar dat kan NVIDIA natuurlijk ook (zie 8800GT, wat toch ook een geweldige kaart is)
Waarom zou NVIDIA per se een ander ontwerp moeten gaan maken terwijl ze duidelijk de overhand hebben wat betreft efficiency? ATI kan zelfs met twee GPU's op een kaart niet aan de oude 80nm chips tippen, laat staan de nieuwe 65nm chips.
als je meerdere kleine chips maakt kun je ook kritischer zijn op de kwaliteit ervan zonder dat de yields er veel onder leiden. zo zouden ze dus meer mhz kunnen bieden met het zelfde voltage (dus ongeveer zelfde verbruik) met 2 kleine chip als ze zouden kunnen met 1 grote chip.
tuurlijk zitten daar nog wel wat haken en ogen aan en is nvidia's ontwerp niet met dat van ATI te vergelijken, maar dat is wel een van de ideeen achter de multi-gpu bij de r700.
Uiteindelijk kan je NVIDIA's ontwerp momenteel ook beschouwen als een samenstelling van kleine chips. Iedere "pipeline" zoals dat vroeger genoemd werd, is nu een stream processors, en op zich staande processor dus.
Iedere "pipeline" zoals dat vroeger genoemd werd, is nu een stream processors, en op zich staande processor dus.
Nee, niet helemaal. Stream processors is een hele leuke marketingnaam van NVIDIA, maar het dekt de lading niet. Elke "stream processor" is niks meer dan een simpele ALU, en ALU's zijn maar een klein onderdeeltje van een processor.
Een processor is een op zichzelf staande eenheid die onafhankelijk programma's kan uitvoeren. Een NVIDIA G80 (8800GTX) bestaat zo uit 8 processors met elk 16 ALUs (stream processors). Elke processor (in NVIDIA termen een cluster) kan onafhankelijk van andere processoren een thread uitvoeren, voor een geometry-, vertex-, of pixelshader. Elke ALU in de processor voert dan tegelijkertijd hetzelfde programma uit.

Hetzelfde verhaal geldt ook voor de nieuwe AMD kaarten trouwens. 320 stream processors? Zouden ze willen :P
Ehm, bijna goed :)

De G80 heeft 16 processors met 8 ALU's. (16 x 8 = 128 ALU's). Een processor ( nv noemt ze "multi processors" ) is een 8 data eenheden brede SIMD processor. (een instructie werkt op 8 data eenheden tegelijk, of eigenlijk 16 in 2 cycles maar ik zal het niet te ingewikkeld maken).

Ik snap de marketing jongens wel want om de efficientie te verbeteren van programma's die niet op bijvoorbeeld 8 data elementen tegelijk werken zal nVidia in de toekomst overstappen op processoren die bijvoorbeeld maar op 4 data elementen tegelijk werken. Het aantal processors is dan bijvoorbeeld van 16 naar 32 gegaan maar het aantal "stream processors" is dan nog gelijk. Beetje moeilijk wordt het dan voor de consument.
De manier van AMD cpu's staat mij ook meer aan maar toch blijkt Intel vaak sneller in de praktijk.

Uiteindelijk heiligt het doel de middelen natuurlijk. Mits deze Nvidia chip snel is boeit het voor de markt zeer weinig joe dit is bereikt als men dit ook nog eens kan koppelen aan betaalbaarheid.
eum, een 45nm CPU (voor consumenten) gebruikt ook zelden meer als 40Watt hoor, je hebt er zelfs snelle onder de 25Watt...
Dus je bewering dat CPUs meer gebruiken als vroeger is echt uit de lucht gegrepen... Mijn pentium 1 @ 120MHz gebruikte ook al zo'n 50Watt, terwijl de Core 2 Duo T9500 aan 2x2.6GHz draait onder 35Watt.

[Reactie gewijzigd door kiang op 1 april 2008 20:56]

De mens wil alles sneller, sneller transport, etc.. en dara was de computer geen uizondering op... Daar was er een grote vraag naar: snellere, krachtigere pc's.
En ergens klikt het logisch dat voor een prestatie winst ook een verhoging in verbruik is...(dit proberen ze nu met kleinere procťdťs wat te verhelpen :) )
Nu dat mensen en bedrijven meer moeten betalen voor hun stroom, wordt de vraag groter naar energiezuinige machines!
Als de elektriciteit minder zou kosten, dan zou niemand geinterreseerd zijn in perfomance in te leveren voor energiezuinigheid...

Sinds de Pentium 4 zijn tdp's van +90W volledig toelaatbaar gekomen, tot nu!
Alle chipmakers investeren in zuinigere chips, maar wie een dikke ferrari wilt gaat ook iets meer betalen aan de pomp, hetzelfde met de pc: De GT200 is high-end, mensen die dat willen zijn zot!
(spijt me verschrikkelijk voor hen maar een kaart kopen die u een stijging op de elektriciteitsfactuur oplevert, en bovendien een gruwelijk slecht prijs/kwaliteits verhouding heeft vind ik gewoon dom)
Daarom vind ik hetook normaal dat zo'n verbruikers stukken meer betalen, het zijn ten slotte hen die de wereld snel kapot gaan maken, niet de gewone mens die zijn krant eens wil lezen op de pc :)

Bij de GPU's in de mainstream al redelijk zuinig, de 3650, 9600, 3850 zijn kaarten waarmee men kan gamen, en gerust kan gebruiken zonder zich blauw aan elektriciteit te betalen...
Bij de processors geldt hetzelfde, zeker nu intel naar het 45 nm proces overgestapt is. Ik versta de ergenis over enegrieverbruik van pc's compleet, maar u moet hopelijk inzien dat de pc's van nu merkelijk zuiniger zijn dan die van 3 a 4 jaar geleden :)
Men maakt ondertussen systemen speciaal gericht op zuinigheid en efficientie, naar mijn mening is de situatie aan het verbeteren...
geen nieuwe serie (10 serie) voor de gt200-architectuur?
als dat echt waar is hebben ze er echt een zooitje van gemaak qua naamgeving.

de g92 serie had de 89xx serie moeten zijn en de gt200 de nieuwe 9 serie logische bekeken.
zelfs marketing-technisch kan ik geen reden bedenken om het zo te doen.

wel mooi dat ze eindelijk weer een nieuwe architectuur introduceren. ben benieuwd hoe hij zich verhoudt tot de r700, en of hij goed beschikbaar zal zijn gezien de wat minder rooskleurige geruchten op het moment. (per chip is de gt200 waarschijnlijk sneller, maar de r700 is bedoeld om te combineren, en is stukken goedkoper om te maken en zuiniger naar alle waarschijnlijkheid)

[Reactie gewijzigd door Countess op 1 april 2008 18:58]

Het wordt inderdaad slordig. Ik kan niet meer volgen wat een die shrink of nieuwe architecture is met al die serie nummers die elkaar overlappen.
De GT200 zou wel groot zijn en veel energie opslurpen,
Hmmm daar gaan ze blij van worden. Op moment begint energieverbruik te tellen, omdat je het 1. moet aanvoeren, 2. moet afvoeren, en met beide zijn er problemen (extra stekkers, zwaardere PCIe-bussen, megakoelers en ruimtegebrek). Daarnaast betekent een grotere chip meer uitvallers, omdat het aantal foutjes per cm2 gelijkblijft (ongeveer dan). Ik denk dat dit een soort 8800 Ultra gaat worden, oftewel : weinig verkocht, patsfactor, en vooral extreem duur. De 92-architectuur zal meer de gewone kaarten bevolken, zeker als er geschaald wordt naar 55nm (waarom niet ook naar 45? Tussenstappen kosten veel geld). Misschien worden ze er nog zuiniger en sneller op :)
waarom niet ook naar 45? Tussenstappen kosten veel geld
Omdat:
1) er geen 45nm process in gebruik is bij TSMC, dat is nu direct vervangen door een half node 40nm procedee, en
2) 55nm een half-node is van 65nm, en dat betekent dat het eenvoudig is om het ontwerp te schalen van 65 naar 55nm, terwijl het 40nm procedee compleet andere eigenschappen heeft waardoor er veel meer veranderd moet worden.
3) de 40nm productiecapatiteit nog bijzonder laag is. Het duurt wel even voordat TSMC de overstap heeft gemaakt om voldoende chips te kunnen bakken.
1 ding snap ik bij de nieuwe serie van Nvidia niet.
Waarom is de idle load zo hoog? :S

Is ongeveer 60 watt

Alleen daarom zou ik deze serie al niet kopen, vind dat wel erg veel hoor.
Vooral als je ziet dat het ook anders kan

[Reactie gewijzigd door pennenlikker op 1 april 2008 20:06]

Dit gaat over de idle load van hele systeem, niet alleen de videokaart zoals bij nordichhardware. Maar het is wel een stukje meer, 65nm <> 55nm, special features voor uitzetten van delen die niet gebruikt worden.
De GT200 zou wel groot zijn en veel energie opslurpen, en Nvidia zou veel moeite hebben de gpu op de pcb te positioneren.
Alles goed ende wel, maar dit is exact de reden waarom ik de 8800GTS320/640 serie nooit interessant heb gevonden. Puur omdat ik het te lompe dingen vond. En hetzelfde idee had ik bij de ATi Radeon HD2900XT serie.
Presteren is ťťn ding, dat is wel gelukt in dit geval, maar dat op een efficiŽnte manier doen verdient meer lof.
Wie terug denkt weet dat de Voodoo5 6000 ook een monster van een kaart was en ook leuk performeerde met een fatsoenlijke bak er onder. Maar ook dat dit de eerste consumentenkaart was waar externe voeding voor nodig was!
Naar mijn mening gaat de strijd om de performancekroon hier meer om een "hoe maak een een kaart zo snel mogelijk no matter the cost" dan om "hoe maak ik een efficiŽntere kaart". En dat terwijl veel andere producten "environment friendly" gemaakt worden, gaat hier ineens flink het sap er in. Dan wordt er netto nog niets mee opgeschoten toch?
Pas met de introductie van de 8800GT en de HD3870 zag ik voor mij acceptabele kaarten. Die-shrinks, wat een lager energiegebruik tot gevolg had en in sommige opzichten een efficiŽnter geheel.

Het lijkt er dus op dat er richting een soort van Intel achtige tick-tock strategie gegaan wordt. Nieuw design om mee te knallen, no matter the cost, gevolgd door eenzelfde design maar dan efficiŽnter.
Als dat zo is dan weet ik al half welke generaties ik wel en niet interessant ga vinden :X

[Reactie gewijzigd door Ultraman op 1 april 2008 20:02]

zou Ati weer Nvidia niet bij kunnen houden?

Het zou mij niet verbazen dat de Geforce 9900GT en de Geforce 9900GTX veel sneller gaat worden dan Ati 4000-serie.

Dat zie je ook met de ATI Radeon HD 3870 X2 vs Geforce 9800GX2, dat de Geforce 9800GX2
sneller is.

En ja ik weet dat de ATI Radeon HD 3870 X2 (Friesland-Computers Bergsma) 299,- Euro kost, en de Geforce 9800GX2 (Empc) 410,- Euro, 111,- euro duurder.

Maar als je het snelst wil neem je de Geforce 9800GX2, of 2x GeForce 8800GT,512MB (Azerty) 139,99,- per stuk, bij elkaar dan maar 280,- euro.

Want 2 GeForce 8800GT,512MB in SLI is ook sneller dan een ATI Radeon HD 3870 X2, en voor minder geld ook.

[Reactie gewijzigd door AmigaWolf op 1 april 2008 23:04]

Moet dat dan? Als ik een kerncentrale bouw heb ik ook genoeg power voor zware GPU's. ATI is er tenminste nog eentje die verder kijkt dan puur FPS. ATI's kaarten zijn tegenwoordig zuinig, stil, erg veel bang for buck en hebben de beste opties om HDTV te encoden. Tevens is Crossfire veel schaalbaarder dan SLI en heb je er niet per se zo'n duur stroomvretend bord van nVidia voor nodig.

Over dat laatste, je kunt wel beweren dat 2x8800GT goedkoper is, feit blijft dat je er dat dure moederbord bij op moet tellen. Mensen met een mATX mobo (like me) en die dat zo willen houden zijn met de HD3870 X2 toch het beste uit...
Moet dat dan? Als ik een kerncentrale bouw heb ik ook genoeg power voor zware GPU's. ATI is er tenminste nog eentje die verder kijkt dan puur FPS. ATI's kaarten zijn tegenwoordig zuinig, stil, erg veel bang for buck en hebben de beste opties om HDTV te encoden. Tevens is Crossfire veel schaalbaarder dan SLI en heb je er niet per se zo'n duur stroomvretend bord van nVidia voor nodig.
Een ATI fan in het nauw gedreven verlies alle zin voor realiteit. Cube, je bent hier weer het beste bewijs van.
Mag ik er even op wijzen dat ATI momenteel de meeste energieslurpende kaart van het moment heeft en dan nog niet aan prestaties van NVIDIA's beste komt?
En die bang for buck? NVIDIA dwingt ATI van zijn prijzen te verlagen anders geraken ze die matige kaarten nergens kwijt. Ze kunnen namelijk niet concurreren op vlak van prestaties dus doen ze het op vlak van de prijs. Wat niet verkeerd is natuurlijk.
De schaalbaarheid van CF is niet veel beter dan SLI. U mag hier altijd linkjes posten die je punt bewijzen.
Over dat laatste, je kunt wel beweren dat 2x8800GT goedkoper is, feit blijft dat je er dat dure moederbord bij op moet tellen. Mensen met een mATX mobo (like me) en die dat zo willen houden zijn met de HD3870 X2 toch het beste uit...
High-end SLI moederborden zijn duur, dat is zeker. Maar dan krijg je ook wel wat. Maar ik heb nieuws voor je: er bestaan ook budget SLI moederborden, die zoals je al vermoedt, niet duur zijn

De hoeveelheid foute informatie die je over NVIDIA verspreidt is enorm, het begint een beetje droevig te worden.
Praat niet zo stom zeg, je hebt niet een dure moederbord nodig man, een Asus P5N-D nForce 750i SLI, SATA2 RAID ( http://www.zercom.nl/inde...=130&f=1&h=1&s=1&a=102451 ) voor maar
101,80,- euro is goed genoeg.

En als je het snelst wil neem je het snelst.
tja dat is wel leuk en aardig...zit je toch met minder dan 16 lanes per PCIe bus...een goed sli bord dat min. 32 lanes heeft zit toch boven de 150 euro.
Beeter lezen man de Asus P5N-D heeft gewoon in SLi 2x 16 en niet 2x 8.

Ik heb hem hier in mijn Computer en hij Heeft gewoon PCi Express 2.0 SLI 2x 16.

Staat zelfs in de Asus Web site kijk maar: http://www.asus.com/produ...33&l1=3&l2=11&l3=627&l4=0


Ja ze hebben het voor elkaar gekreegen.
Deze zou volgens een posting op het Chinese forum Itocp over 200 shader processors en een 512bit 'crossbar bus' beschikken, waarbij niet geheel duidelijk is wat met de term 'crossbar' bedoelt wordt.
De R600 van ATI beschikt over een 1024-bit ring bus (512-bit in elke richting) om de data doorheen de chip te verdelen. Dit blijkt in de praktijk niet zo efficiŽnt. Een 512-bit crossbar bus lijkt mij te verwijzen naar NVIDIA's klassieke aanpak om ťťn groot 'kruispunt' te voorzien voor de data. Het zou dus kunnen gaan om 8 lanen van 64-bit bijvoorbeeld, vermoedelijk bi-directioneel. Dit zou ook impliceren dat er een 512-bit verbinding met het geheugen komt. Maar erg betrouwbaar zijn geruchten over NVIDIA's toekomstige technologieŽn nooit...

[Reactie gewijzigd door c0d1f1ed op 1 april 2008 19:03]

nee de r600 heeft er ook een, maar voornamelijk als experiment voor de r700.
een van de redenen voor de ring-bus is het feit dat ze aan elkaar te koppelen zijn.
zo kan je kleinere losse chips maken die toch bijna net zo werken als 1 grote chip (veel minder afhankelijk van driver optimalizaties voor goede performance met meerdere chips in tegenstelling tot SLI of crossfire)
Ja, voor een leek klinkt dat heel logisch allemaal, maar als je een beetje dieper kijkt is dat een non-argument.

Ik heb in mijn loopbaan zowat chips gedesigned met een ringbus als crossbar, soms beiden.

Er is geen enkele fundamentele reden waarom je met een ringbus wel en een crossbar geen verschillende chips aan elkaar kan plakken: de moeilijkheid is werkelijk niet om de data binnen de chip te transporteren, maar bestaat hem in de externe link tussen twee dies. Een interne ring bus maakt dat niet gemakkelijker: je moet hiervoor ook een interface eind-station designen die in de praktijk zo goed als identiek is aan dat voor een crossbar.

Ja maar, zal je tegenpruttelen, een externe ringbus laat het toe om de chips zelf ook in een ring te plaatsen.

Jazeker, maar er is niets dat belemmert om een interne crossbar te combineren met een externe ring: dat zijn orthogonale architectuur beslissingen die elkaar nauwelijks beinvloeden. In beide gevallen heb je 2 interface eind-stations nodig om de externe ring te termineren, een write station en een read station. Het is perfect mogelijk om beide blocken aan een crossbar te hangen en simpelweg een kwestie om op basis van routing tags de requests naar het juiste station te sturen.

Dat de ring-bus in R600 een experiment zou zijn, is eerlijk gezegd BS. Data transport is een essentieel deel van de chip. Het leidt geen twijfel dat de ring voor R600 zo gedimensioneerd is om voldoende data te transporteren. En tegelijkertijd is er niets dat erop wijst dat meerdere R600 chips in een ring geplaastst kunnen worden. Precies wat is er dan experimenteel aan?

[Reactie gewijzigd door newinca op 2 april 2008 09:28]

Dat de ring-bus in R600 een experiment zou zijn, is eerlijk gezegd BS. Data transport is een essentieel deel van de chip. Het leidt geen twijfel dat de ring voor R600 zo gedimensioneerd is om voldoende data te transporteren. En tegelijkertijd is er niets dat erop wijst dat meerdere R600 chips in een ring geplaastst kunnen worden. Precies wat is er dan experimenteel aan?
Dat wordt gezegd omdat de prestaties nergens op lijken. Als het goed gaat is het geniaal, als het niet goed gaat is het een experiment. Zo gaat dat bij ATi.
krijg het idee dat de 9800 niet meer is dan verlengen van of uitmelken van kaart is om maar iets als tegenhanger te hebben voor de ati's. de gx2 bv,. ik heb geen 8800 gx2 gezien.
euh, dat was toch de 9800gx2, waarom ze het idd niet de 8800gx2 hebben genoemd weet niemand..
oh man, dat betekend dat ik weer de koop van een nieuwe kaart moet uitstellen ^^

Maar hebben ze niet al eerder gezegt dat de kaart dubbel zo snel is als zijn voorganger? Dat moet ik eerst nog maar eens zien..
Zolang je geen behoeft hebt om spelletjes in de allerhoogste resolutie en kwaliteit te spelen, dan is het feit dat de ontwikkeling zo snel gaat alleen maar gunstig. De grafische kaarten die je kan kopen voor minder dan $75 (§70 met import/etc), zijn echt geweldig.

Een 8600GT of HD3650 met 512MB geheugen en zeker een model met hogere klok dan standaard (vele fabrikanten hebben OC modellen) zijn geweldige kaarten in dat prijs gebied momenteel. Tuurlijk hebben ze moeite om bij te benen met het prijs/prestatiegeweld van een 8800GT of HD3870, maar dan zit je alweer veel duurder, en dan blijf je aan de gang.

En doordat er nu dus niet alleen de 9800GTX maar ook de 9900GTX op korte termijn aankomen, zal het me niet verbazen als de 8800GT zeer dicht tegen de $100 aan zitten deze kerst. Je oude videokaart is op dat moment ook nog steeds redelijk wat waard, dus als je die dan weer kan doorverkopen is je uiteindelijke investering zeer goed te doen.

Je moet dan wel genoegen nemen met spelletjes op 1024x768 met medium kwaliteit en niet 1600x1200+ enzo, maar er zijn genoeg gebruikers die daar geen probleem mee hebben.
Als tegen die tijd de 8800GT 100 euro is is je oude kaart niks meer waard.
Elke nieuwe generatie is tegenwoordig ongeveer dubbel zo snel als de vorige. Ruw gezegd, er zijn uitzonderingen natuurlijk (dat het verschil groter of kleiner is, beide is al voorgevallen, zoals nu 9800GTX meer een doorontwikkeling is van de 8800, dan een volledig nieuwe generatie en het verschil dus niet zo groot is).

Btw, volgens mij is het nu net wel ideaal om een nieuwe kaart te kopen. De 8800GTX'en gaan in afslag, de 8800GT is prijs-prestatie geweldig, en als je echt het beste van het beste wil is er nooit een goede moment.
Elke nieuwe generatie is tegenwoordig ongeveer dubbel zo snel als de vorige.
We zijn 17 maanden na de lancering van de G80. Er is nog steeds geen nieuwe generatie. Dat noem jij snel?
dan zit je nu ook nog met een MX440 ofzo want uitstellen kun je elke maand zowat
Ik denk dat dit een sarcastische opmerking van Twigg was hoor ;). Want hoeveel mensen zaten wel niet te wachten op de 9800 GTX en nu is ie eenmaal uit en blijkt het een niet zo'n super kaart te zijn en direct dezelfde dag wordt alweer een volgende videokaart aangkondigd :P.
ze voelen de hete adem van de rv770 dus ze moeten wel wat
ook al zou hij nog niet klaar zijn
inderdaad... dat denk ik ook!

Want de nieuwe 4000-serie van ATI op basis van deze RV770 ziet er op het eerste zicht veelbelovend uit: verwacht zuinigheid tegen een redelijke prijs

http://www.hardware.info/...er_details_ATI_RV770_GPU/

... iets wat van de komende GT-200 core van Nvidia blijkbaar moeilijker kan gezegd worden...
De GT200 zou wel groot zijn en veel energie opslurpen, en Nvidia zou veel moeite hebben de gpu op de pcb te positioneren.
hoe dan ook: het voorspelt een "heet" najaar te worden :+
De RV6xx serie van ATI zou (zo zeiden de ATI-fanboys) de kaarten van nvidia helemaal in het niets doen verdwijnen..."320 unified shaders!!!" hoor ik ze nog roepen...en hoe die presteerden is nu ook gebleken...dus zullen we eerst ff op resultaten wachten voordat we onzin uitkramen?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True