Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 132 reacties
Bron: DigiTimes

Het uitkomen van de GeForce 8800-kaarten heeft niet tot 'significant hogere' verkoopcijfers geleid, zeggen nVidia's Taiwanese partners. Volgens hen wachten de klanten, ondanks de uitstekende prestaties van de G80-core, op goedkopere varianten.

De G80 is onbetwist de snelste verkrijgbare gpu van dit moment en beschikt bovendien over volledige DirectX 10-ondersteuning. Met name de 8800 GTS wordt door recensenten, ondanks een prijs van zowat 450 euro, als 'een koopje' betiteld, maar al het goede nieuws bleek niet genoeg om de veeleisende consument in groten getale naar de winkel te laten hollen. Mogelijk houdt dat verband met de opvolgers, schrijft DigiTimes: de recentste roadmaps van nVidia vermelden de G84 en de G86, die de G80-architectuur voor respectievelijk instapmodelletjes en middenklassers beschikbaar moeten maken.

De nieuwe gpu's van nVidia moeten in het eerste kwartaal van 2007 op de markt verschijnen; samples van de nieuwe chips zouden in januari of februari bij de fabrikanten arriveren. Concurrent ATi zou in hetzelfde kwartaal met de R600-gpu komen, die eveneens DirectX 10-compatible is. Overigens wordt al enige tijd rekening gehouden met een zwakke grafischekaartenmarkt: consumenten zouden niet zozeer zitten te wachten op goedkope DirectX 10-kaarten, maar willen vooral weten welke hardware het best met Microsofts Vista overweg kan. Omdat de consumenteneditie van dit besturingssysteem eind januari verschijnt, lijkt het er hoe dan ook op dat er vanaf februari spannende tijden voor de gpu-bakkers aanbreken.

Gainward Bliss GeForce 8800 GTS
Moderatie-faq Wijzig weergave

Reacties (132)

Inderdaad, ook ik wacht op de goedkopere versies. Er zijn vast heel veel mensen die wel willen gamen, maar 450 euro belachelijk vinden.
sterker nog, ik vind niet alleen de 400-500 euro belachelijk, ook het stroomverbruik is VEEL te hoog!
De 8800GTX verbruikt 30 Watt meer dan de Ati X1950XTX onder full load op een totaal van 180 Watt verbruik. Al met al dus 20% meer energieverbruik voor bij bijna dubbel zo hoge prestaties. De 8800GTS verbruikt zelfs minder dan de X1950XTX en presteert beter. Idle power consumption is wel wat hoger helaas, maar met 700M transistoren ipv 300M voor de ati ook niet erg vreemd. Zoals vele reviewers al melden valt het stroomverbruik erg mee, is het ding stil en is het prestatie per Watt bezien een flinke vooruitgang. Ik ga hem dan ook gewoon kopen, anders kun je eeuwig blijven wachten ;)
Bovendien, de geruchten omtrent de ATI R600 al gehoord wat betreft stroomverbruik? :o
Misschien gaat het niet om "performance per watt" maar gewoon puur om dat je videokaart een kachel is van ongeveer 200Watt.
Je kunt bij een auto die 2 liter/km verbruikt ook wel roepen dat hij geweldig veel pk's heeft voor een auto die 2 liter/km verbruikt, maar de kern (voor sommigen) van het verhaal blijft dat je 2 liter/km brandstof moet kopen en dat ze dat er gewoon niet voor over hebben.

Ik zou me als thuisgebruiker ook ernstig zorgen gaan maken over mijn stroomrekening als ik een PC zou kopen waarvan de videokaart alleen al 200Watt vraagt. Nog even en mensen gaan krachtstroom aansluitingen moeten aanvragen voor het spelen van een spelletje.

Vergeet ook niet dat een "reviewer" die het mee vindt vallen zeer waarschijnlijk een enthousiaste gamer is, die een veel hoger stroomverbruik wil accepteren dan iemand die uiteindelijk de kaart moet gaan kopen. Zelfde geldt voor de aankoopsprijs. Iemand die voor zijn hobby helemaal in de computers zit zal veel eerder een paar honderd euro aan zo'n kaart spenderen dan je oma.
Je vergeet dat de kaart ook energie verbruikt als hij idle draait. Dus standaard kan de 8800 GTx zomaar 50-75 watt gebruiken.

Dus met 8 uur per dag de pc aan waarvan 3 uur gamen verbruikt alleen je videokaart al 775-900 watt per dag. Per jaar is dit dus 285-328 kilowattuur!! Met een prijs van 20 cent per KWh komt dit dus neer op 57-65 euro per jaar aan stroom voor alleen al je videoaart, en dus geen 17.50 euro...
Nou met die kosten van dat 200 Watt energieverbruik valt het wel mee hoor.
Stel je bent een fanatieke gamer en gamet iedere dag 3 uur.
Een kWh kost ongeveer 8c tegenwoordig, deze kaart gebruikt 0.2 kWh, dan krijgen we het volgende sommetje voor de kosten per jaar: 0.2 * 0.08 * 3 * 365 = 17.52

Deze kaart kost dus in dit geval 17.50 euro per jaar. Op een kaart van 450 euro is dat peanuts lijkt mij.
leuk rekenwerk, maar geef mij ook ff de naam van jouw elektra leverancier.... 8 ct per kWh klopt wel, alleen komt daar ook nog vastrecht en energiebelasting bij. Totaal kom je dan op 15 a 20 ct of zo.... dus nog ff x 2.5.
@bas van der Doorn

De enige reden voor mij om deze niet in mijn nieuwe pc te doen is het IDLE energieverbruik. Dat is zo ongeveer het dubbele van een radeon X1950XTX.

Die pc is het grootste deel van de tijd niet 3D bezig. Jammer dat het 3d gebeuren dan niet uitgeschakeld kan worden.

VRAAGJE:
Zou ik een dual boot kunnen doen waarbij ik de 8800 uitschakel in de work-boot??

Ik zou dan mijn tft met een vga kabel koppelen aan een simpel 2d pci kaartje. De 8800 koppel ik met een dvi kabel aan dezelfde tft. In de windows work boot staat de simpele pci kaart aan @ 5 watt. In de windows game boot staat die zuipschuit van een 8800 aan. Maar dat hindert niet want ik game maar 6 uur per week. :) :'(

Kan je een videokaart dusdanig deactiveren in windows dat deze geen stroom meer verbruikt?
Wat een gereken zeg. Als je een kaart van 450 euro koopt dan boeit je die paar piek in het jaar voor stroom geen ééne bal, als je dat bezwaarlijk vond kocht je een budget kaartje. En laten we wel wezen. Als m'n PC 340 dagen per jaar volcontinue aanstaat en ik game ongeveer 4 uur per dag, de rest wordt er grafisch gezien geidled, dan kan de stroom rekening weleens in de buurt van de 100 euro per jaar komen, met een X1950XTX. Mijn enige antwoord daarop is "nou en?!" Kijk voor de gein effe wat je uitgeeft aan een tankje diesel of benzine. Of wat er zoal uitgegeven wordt aan snoep, drank, cigaretten enzovoorts. 't is maar net waar je je prioriteiten hebt liggen. Stroomverbruik en prijs is voor dit soort high-end kaarten net zo min een argument als het feit dat je 350 PK in je Corvette 1 op 9 verbruikt. Boeiender is het dát je 350 PK hebt en BMWtjes op kunt duwen op de A61 :D
leuk rekenwerk, maar geef mij ook ff de naam van jouw elektra leverancier....
Daarbij vind ik dat ook games hun verantwoordelijkheid hebben richting het milieu. We gebruiken in het Westen al meer dan genoeg energie.
Je moet het stroomverbruik van de x1950xtx niet met de 8800gtx vergelijken.......
Het gaat om de vergelijking met de laatste
nvidea voorgangers.
Een 6800ultra verbruikte 110W en vanaf daar werd het steeds een lager verbruik.

Een 7900gt verbruikt b.v maar 89 Watt.

Ati zijn stroomverbruik is altijd hoger geweest.
Nu is het in 1 keer een mega verschil met b.v een 7900gtx.

Dit komt door het nieuwe proces en ik denk dat het verbruik met de komende opvolgers weer omlaag gaat.

Want als je nu b.v een 7900gt hebt @ 89W dan is het een aardig verschil niet?
En trek daar dan ook weer eens de stroomkosten vanaf als je met een standaard, goedkopere, videokaart zou werken. Dan kost deze in praktijk een paar tientjes meer per jaar dan een basis-kaart. Lijkt me te doen, je krijgt er erg strakke graphics voor terug!
350 pk en 1 op 9 ?

Wow, mijn BMW'tje van weleer haalde slechts 1 op 8 en had lang niet dat aantal pk's...

Gelukkig ben ik Knettergek nooit tegengekomen op de A61 ;)


Trouwens. mijn pc'tje verbruikt (idle) totaal slechts 180Watt:
dat is een X2 4800, twee 300GB discs, twee DVD's en een 21" monitor inbegrepen !
Ok, wel onboard 6100 video ;)
@knettergek

Ik ben niet gek hoor ;)
Het geld maakt me inderdaad niet zo heel veel uit. Maar het milieu wel.

Zijn deze videokaarten trouwens 'RoHS'.

(Enne .. sigaretten??? :r )
Leuke vergelijking. Jammer alleen dat de voorgaande versie M3 met 326PK sneller door de bocht gaat en kan dan de C5.

Buitenbechouding gehouden dat ik een Vette altijd mooier vind dan een Beamer (okay de 850 daar gelaten)
sterker nog, ik vind niet alleen de 400-500 euro belachelijk, ook het stroomverbruik is VEEL te hoog!
De G80 kaarten gebruiken gemiddeld 17% meer watt dan de vorige generatie maar geven een betere performance/watt.
is het niet met ieder product zo dat wanneer je meer wil dan een gemiddelde gebruiker (hogere resolutie en meer eyecandy) dat je hier ook een hogere prijs voor betaald.

persoonlijk denk ik dat de 'lage' verkoopcijfers veroorzaakt worden omdat niemand weet hoe de kaart presteert op directx10 games.
De G80 is heel mooi, en veel steller dan alle andere kaarten, waardoor ik denk dat veel mensen op de nieuwe G-kaarten wacht van ongeveer 200 euro die hetzelfde ongeveer zal presteren als de high-end kaarten van nu...Want tegenwoordig hebben veel mensen een LCD scherm, en zo een monster van een kaart voegt niet veel toe aan de andere high-end kaarten op een resolutie van 1200x1024
Ik kan me hier wel in vinden. Sowieso is hij natuurlijk niet goedkoop, en als eerste DirectX 10 kaart heeft hij iets bčta-achtigs.
...en als eerste DirectX 10 kaart heeft hij iets bčta-achtigs.
DirectX 10 brengt eigenlijk zeer weinig nieuws (qua specificaties). Er is dan ook niks beta te noemen aan G80.
als jij denkt dat directx10 'zeer weinig nieuws' bied tegenover directx9 zou ik graag een bron van je willen zien.
de vernieuwing zit vooral in de software van DX10 zelf.
kwa hardware zijn de veranderingen een stuk minder groot, en meer evolutie als revolutie ten opzichte van dx9.
AtleX: Het is enkel een architecturale wijziging, heeft niks te maken met DirectX 10 specificaties (wel DirectX 10 implementatie). Zeker geen reden om G80 beta-achtig te noemen. Dus daarvoor hoeft men niet te wachten met de aankoop.
Afaik is de unified shader architecture toch een behoorlijk stap voorwaarts ipv slechts een kleine wijziging.
densoN: http://msdn.microsoft.com/directx/

Game developer zijn helpt ook...
- Geometry Shaders
- Shader Model 4.0
- Unified Architecture

weinig nieuws? :Y)
knirfie244:

- Geometry shaders zijn bijna identiek aan vertex shaders.
- Shader Model 4.0 heeft nauwelijks nieuwe instructies.
- Unified architecture is een implementatiedetail.

Met andere woorden, als je prima DirectX 9 kaarten kan produceren is het geen onmogelijkheid om een goede DirectX 10 kaart te produceren. Daarom dus dat G80 zeker niet als beta bestempeld kan worden.

Het is bijzonder onwaarschijnlijk dat er significant hogere prestaties kunnen gehaald worden met een ander design. Het enige dat het wachten waard kan zijn is 65 nm, maar als je toch al een DirectX 10 kaart wil lijkt de G80 mij geen verkeerde keuze (de GTS is prijs/prestatie-gewijs dan ook het beste op de markt).

De ontwikkeling van G80 is trouwens samen gestart met NV40 (ander team). En samen met het uitstel van Vista is er dus bijzonder veel tijd in gestoken. Het is dus ook verre van een haastklus, of beta...
LoermansA: G80 is volledig unified. Er bleven lang geruchten rondhangen dat het niet unified zou zijn (onder andere ondersteund door NVIDIA's CEO die niet wou bevestigen dat het unified zou zijn, maar dat ze zo lang als nuttig bij de vorige architectuur zouden blijven).

Soit, nog een reden minder om te wachten als je een DirectX 10 kaart wil.
c0d1f1ed:
onder andere ondersteund door NVIDIA's CEO die niet wou bevestigen dat het unified zou zijn,....
Ook beetje ondersteund door geruchten dat de drivers een deel van de shaders voor pixelpipeline zou reserveren en een deel voor vertex.

Dat de unified architecture een implentatiedetail is .. heb je gelijk in, echter bij volle benutting van de mogelijkheden (het zeer flexibel inzetten van alle shaders) kan er wel degelijk meer mee bereiken. Dit kan je zien als hulpmiddel om shaders simpeler te maken of als uitdaging om er meer uit te halen.

Gezien het pushen van de kaart zal jij er wel voordelen voor makkelijker programmeren in zien (je gaf aan dat je gamedeveloper was), en kijkt (misschien) iets minder naar de optimalisatie mogelijkheden ('dure' effecten 'cheaper' doen), voor jou is het een detail ... voor iemand die iets ongunstiger tegen de kaart aankijkt zou het wel eens te duur (voor het moment) kunnen zijn aangezien je er voorlopig weinig voordeel mee zal behalen. Tevens is het een leuke claim dat ie DX10 compatible is (en zal het ook wel zijn) maar de eindgebruiker heeft niets om dat echt goed mee te testen.

Het lijkt een beetje op de situatie met de R9700Pro... een snelle DX9 kaart (voor zijn tijd) die uitkwam voor er echt iets was wat het nodig had... (UT2003 maakt bijvoorbeeld nog gebruik van DX8.1) Dit zorgde toen ook voor redelijke terughoudendheid bij DX9 kopers..
De G80 heeft juist geen Unified Shader, dat heeft de R600 straks wel. Dat is AFAIK geen feature van Dx10, maar van de hardware (en dus de drivers).

Hmm, het lijkt er op dat ik wat oudere artikelen heb gebruikt om aan te nemen dat de G80 niet unified zou zijn. Mea Culpa
je mag dan wel een game developer zijn maar er zijn genoeg functies toegevoegd en herschreven om jou 'voegt weinig toe' mening ongeldig te verklaren.

misschien moet je hier eens doorheen lezen:
http://www.firingsquad.co...phics_preview/default.asp
Zoals reeds gezegd is op het vlak van de software inderdaad vrij veel veranderd, in de goede richting. De API is opgekuisd, de drivers werken efficient samen met Vista, etc. Daar zal ik dan ook niet tegen argumenteren.

Maar op het vlak van de specificaties voor de hardware is er zeer weinig veranderd. Het is zelfs zo dat DirectX 9 hardware bijna DirectX 10 kan draaien. Het is voornamelijk een kwestie van software (API, driver, firmware).

Om dus terug te komen op het onderwerp, G80 kan zeker niet als 'beta' bestempeld worden. Dat zou impliceren dat er fundamentele fouten zouden gemaakt zijn, of dat het veel beter kan met een ander design. Met een hardware specificatie die zo dicht aanleund met DirectX 9 is dat vrijwel uitgesloten. En aangezien R600 ook unified zal zijn zal men ook niet het een of het ander als beta kunnen benoemen.
Als coder zou je moeten weten dat er helemaal niet mis hoeft te zijn met een beta... dus ook een goed werkende kaart kan in het beta-stadium verkeren.

Het houdt eigenlijk niets meer in dat ie in een test fase zit welke daarna (indien succesvol) afgerond wordt met een productie-fase. De fase van ontwikkeling waarin het product zich bevind doet niets af aan de kwalitatieve of preformante eigenschappen van het product. Hooguit dat je zou kunnen stellen dat de kans op aanwezig fouten iets groter is als in de final tape-out.

Daarnaast kan ook een Final/Retail product nog vele fouten bevatten.
Maar naast DirectX hebben we natuurlijk ook nog OpenGL, niet te vergeten.

Hier toch nog een lijstje van in ieder geval de nieuwe OpenGL extensies die door de G80 gesupport worden.

http://developer.download...opengl/specs/g80specs.pdf

Er zijn zeker toch wel een aantal significante veranderingen, waaronder dus de verbeterde shaders, nieuwe geometry shaders, en anderen.

Geometry shaders zijn in weze anders dan vertex shaders aangezien zij verder op in de pipeline (voor rasterizatie) zitten, en dus de mogelijkheid hebben om, in principe, alle vertices in je wereld in te lezen en nieuwe vertices aan te maken, wat vooralsnog niet mogelijk was met shaders.

Een potentieel voordeel hiervan is bijvoorbeeld dat "procedural meshes", models die terplekke gegenereerd worden (bijv. uit formules of door het combineren van primitieve vormen), of zeer realistische dynamische deformaties nu goed mogelijk zijn.

In de vernieuwde extensies zijn trouwens ook bitwise operaties, integer texture arrays en full signed and unsigned integer types in de shaders mogelijk. Dit zijn toch wel een paar erg handige features, vooral met al het onderzoek in GPGPU (www.gpgpu.org) tegenwoordig.
OpenGL extensies zijn in de eerste plaats een uitbreiding van de software, niet de hardware.

En geometry shaders kunnen inderdaad nieuwe vertices aanmaken, maar je kan dat even goed op de CPU en dan er een gewone vertex shader op draaien. Je kan dus met DirextX 9 perfect hetzelfde als met DirectX 10 geometry shaders, alleen wat minder efficient.

Maar dat is dus geen reden om G80 als beta te bestempelen. Geef me één goed argument om dat wel te doen. Iedereen is enthousiast over de mogelijkheden die DirectX 10 brengt, en ze zijn efficient geďmplementeerd op G80. Dus waar ligt het probleem? Bij de consument die denkt dat DirectX 10 zo'n grote sprong voorwaarts is op vlak van hardware dat de eerste generatie problemen zou geven...
Als ze de dozen eens zouden voorzien van een logo dat aangeeft dat het om een Windows Vista gecertificeerd product gaat, wellicht dat verkopen wat verbeteren.

Al bestaat zo'n logo volgens mij al...
Ik heb vista geinstalleerd op mijn pc maar die geeft bij grafische prestaties het cijfer "1" :P

Hij kent de 8800gtx volgens mij nog niet :Y)
zou dat kunne omdat je geen whql < of hoe die bagger ook heet> drivers hebt ... vista deed daar bij mijn 6100 ook raar over tot ik die drivers had (oke, 't verschil was minimaal maar de kaart even goed maar 't scheelde wel een punt)
Je hoeft niet per sé een DX10 kaart te hebben voor windows vista, dat kan makkelijk met een DX9 kaart. Alleen kun je dan niet de mooiste interface draaien. Niet dat je dat wil, want waarom zou je je PC op volle toeren laten draaien in bureablad modus..
De mooiste interface van Vista eist DirectX 9, niet DirectX 10. Voor Vista is DirectX 9 dus voldoende.

Het zijn eerder spellen die over een tijdje DirectX 10 willen hebben, niet Windows.
alles wat met DX10 kan kan ook met DX9...
Ik heb een ati 9700pro en die draait ook met aero.
Ook bij mij geeft desktop graphics performance een 5.9 aan.
Ik kan met mijn 1950Pro uitsteken de aero glass interface draaien :-) Vista geeft hem 5.9 van de 6 voor desktop graphics performance :Y)
Yup dat logo heb ik ook op de doos staan van mijn 7950 GT, dus die bestaat idd al.
Alleen klopt het niet bij jou kaart, de 9750GTX heeft geen Dx10 ondersteuning. Op mijn videokaart(een radeon 9600pro) had dezelfde sticker opgeplakt mogen worden. Tot zover de stikkerz.....
Als je goed bij de les was geweest had je geweten dat je PC geen DX10 nodig hebt om Vista ready/compatible te heten, DX9 met x MB ram en y shaders is al genoeg, zoveel meer vraagt Aero nou ook weer niet ;)
Als je de test doet dan weet je meteen wat er allemaal nodig is om je PC Vista Ready te maken.
Zo is mijn XP2400+ met 1.1 GB intern en N6600 goed in staat dit te draaien. Dus waarom zou ik zitten te wachten op een dure nieuwe kaart? Hooguit voor de pats factor!
Misschien het feit dat het een DX-10 kaart is, en dat DX-10 nog niet uit is voor de consumenten zal ook wel meespelen.

Maar het kan ook zijn dat mensen onderhand tureluurs worden van WEER een nieuwe familie videokaarten.

Zo lang is de 7XXX serie Geforce er nog niet. En dan ook nog eens al die verschillende versies, GTX, GTS, GT, Le en wat nog meer.

Vroegah... toen had je gewoon een Monster 3D en dat was dat.

Ik heb zelf ook zoiets van, pfff, heb nog geen half jaar een 7600GT.

En verder is het ook zo, de 7XXX serie is nog niet aan z'n maximale kunnen gekomen met de huidige spellen.

Ik verwacht niet dat er ineens tientallen DX-10 spellen uitkomen als Vista er is, een aantal wel natuurlijk, vooral uit MS-studios om DX-10 te show-casen.

Maar het duurt nog wel een half jaartje voor er ECHTE keuze zal zijn in DX-10 spellen.

En dan zal de vraag evenredig toenemen.
Er komen genoeg nieuwe games uit, er zijn er meerder :

http://www.incrysis.com/forums/viewtopic.php?id=1458

Verder is het het overwegen waard wie nu een nieuw systeem aanschaft om er gelijk een DX10 kaart erin te zetten, je bent voorbereid en kan straks direkt alles op full spelen.

Benchmarks laten overigens toch wel duidelijk een positief prestatie winst zien. Verder is de DX10 zoals hij nu komt afgestemd op de hardware, of visa versa. Dus het zal best wel goed lopen, of dacht je werkelijk dat hardware developers het onderschatten en slechte compatible hardware gaan uitbrengen :?

En wie wil wachten op de andere core's, de budget line, krijgt niet te zien wat iemand ziet met een 8800GTX, afgezien van het budget :)
Feit is en blijft dat als je nu met een 7950 GX2 zit, je nog performance genoeg hebt, zelfs in hoge resoluties. Dus een overstap zou je dan enkel doen voor de extra features (energiebesparing is niet echt iets waar high-end gamers aan denken), waar je dan nog enkel maanden niets aan hebt, wegens nog niet, of onvolledig geďmplementeerd in games. Tegen de tijd dat die features wel ten volle in games worden benut is er toch weer een betere kaart, is het niet van Nvidia, dan wel van ATI.
Reden genoeg om rustig af te wachten lijkt me.
Ik vind dit redelijk voorbarig nieuws: de kaart is twaalf dagen op de markt.
Ik zou zeggen wacht nog een maand, en bepaal dan of de vraag groot of klein is.
Het is meer een soort voorspelling. Als je kijkt naar eerdere releases zie je precies hetzelfde (uit mijn ervaring dan).

Bij de 6800 wachte ik todat de 6800GT (AGP) er was. Qua prestaties en prijs dik voldoende.

Iets na de intro van de 7900 knalde mijn mobo eruit. Ben toen voor een 7800GT gegaan (en een nieuw mobo).

Kan me nog herinneren dat er ooit een FX 5800 in de uitverkoop lag bij de Mycom :) Dat was pas een mooi stofzuigertje, euhm, paradepaardje.
Ik wacht op de versie die op kleiner procedee is gemaakt net zoals met 7800 --> 7900 toen voelde ik me al bekocht..
Jung hast du kein verstand?

ik ga gelijk de 8800GTS kopen als de lokalePC hoer hem tekoop heeft liggen in hun stoffige etalage.

de 8800GTS trekke 5 worsten met ketsjup besmeurd en wel vantafel, al dat gewacht op nieuwere kaarten heeft nog nooit iets opgeleverd, ik draai nogsteeds een 3DFX kaart in SLI en 8000 puntenin 3dmark 2001 is geen enkele moeite,met STOCK voltage.

een kleine procedee is alleen maar nadeel, bedenk maar wat er gebeurd met de bottleneck
Ich habe keine ahnung aber es macht mir gans viel spass dass du mir erzahlt das der 3DFX vieler punter scoort in 3DMark 2001! Ich hufte das der bottleneck bepferkt bliebt!

Ganz Viel Tank fur deiner reaktion!
Jetz soll ich mar Böse werden.

Ik raad je aan niet te zeuren maar direct die kaart te kopen. al je wacht op een 8900 zullen er al wel weer plannen op tafel liggen van een 9850 en zo gaat Nvidia door met het oplichten van mensen tot ze er bij neervallen.

Houdt er ook rekening mee dat ATI ook graag hun kaarten willen verkopen en daarom uitermate hun best gaan doen met frapante plannen aan te kondigen zodat mnsen weer gaan wachten de nieuwe ATI kaarten, want 2 weken geladen waren x1950XTX nog helemaal de zwendel de bomb diggy. nu nvidia dat spelletje weer verknapt voor ATI willen mensen nog alleen maar wachten.

persoon lijk bne ik niet zo dol op wachten , ik hou niet val al dat getob.

ik werk zo:

"zal ik het doen?, JA DOE GEWOON!"

nou en hebbes die kaart, geen gezemmel geen gezeik.

bokkow, toevallig weet ik waar je woont en vat dit dan ook op als e en bedreiging , ik hoop dat als ik je vanavond kom ophalen voor basketbal ik een 8800 GTS zo niet een 8800GTX op je bestel lijstje heb staan, daarbuiten laat de 7900GTO links liggen.! direct X 10 is helemaal zwendel de bomb diggy. heb je die filmpjes gezien, echt we staan op de rand van een keerpunt in game land, want het ziet er echt levens echt uit. kijk maar eens naar COD3 previews, ideaal, soms moet je even kijken om het te onderscheiden van een heuze foto.
Ik denk dat de meeste mensen inderdaad het gevoel hebben dat de kaart niet ver genoeg is ontwikkeld daar het de eerste DX10 kaart is. Ze wachten liever op een modelletje of 2 later zodat alle kinderziektes eruit zijn
en zowiezo zijn ernog nauwelijks tot geen DX10 applicaties, en die zullen in het begin nog helemaal niet zo speciaal zijn.

Ik denk dat je een CD'tje krijgt met wat DX10 demos erop,
en tegen de tijd dat er echte DX10 games zijn, is de kaart al weer verouderd. (zo is het altijd gegaan met die nieuwe features)
Volgens mij heb jij een beetje slecht geheugen.

Met DX9 en de PS2.0 is het absoluut NIET zo gegaan dat pas de volgende generatie het gebruikte.
In tegendeel, binnen de kortste keren waren er stapels DX9 spellen die PS2.0 volop benutten. ATI heeft toen enorm goede zaken gedaan met de 9700, terwijl NVidia het verschrikkelijk zwaar omdat hun kaarten hopeloos presteren met de nieuwe features.

Het kan best heel snel gaan in de game industrie. Met DX9 was het binnen een jaar bekeken, en werd er volop gebruik gemaakt van alle nieuwe features.


We zullen zien wat het met DX10 wordt. Het nieuwe geheugen management kan het effect geven dat je kaart onder DX10 presteert alsof hij het dubbele hoeveelheid geheugen heeft. Dat zou best een reden kunnen zijn waarom het heel erg snel populair wordt, zonder dat de spel fabrikanten heel veel moeite hoeven te doen om nieuwe dingen in te bouwen.
Er zijn nog geen DX10 games en latere modellen zullen hopelijk een stuk energiezuiniger zijn.
Iets waar veel mensen toch steeds meer op letten, scheelt ook de aanschaf van een nog zwaardere voeding.
Welke kinderziektes?

En daarvoor moet je zeker niet op G84 en G86 wachten, die zijn gewoon een halve en een kwart G80. Niks fundamenteels veranderd aan de hardware.

Wil je dus een high-end DirectX 10 kaart en hij ligt in je budget dan is er geen reden om te wachten. Toch alleszinds niet voor deze reden.
Zou het uitkomen van de ps3 (ook 600 $) ook geen invloed hebben op de lagere verkopen?
Dat vermoeden heb ik ook, tesamen met de komst van de Wii en , bijv. Gears of War voor de 360. De echte diehard gamers gamen niet alleen op de PC maar veelal ook op nextgen consoles. Helemaal nu in het HD tijdperk dien je er in ieder geval een LCD TV en een leuk surroundsetje bij te hebben.

Tel de prijs bij elkaar op en dan wacht ook de die hard gamer wel met de aanschaf van een G80 versie omdat, zoals anderen al eerder aangehaald hebben, zijn X19XX of 79XX nog toereikend is voor de huidige games.
Het lijkt me niet gezien het enthausiastelingen aspect van deze kaart, maar ik kan het niet echt onderbouwen.

Waarom deze nutteloze reactie vraag je je af?

Ik ben eigenlijk wel beniewd hoeveel G80 bezitters or mogelijke R600/G81 aankopers ook geintresseerd zijn in een PS3 of andere console?

Ik zou persoonlijk geen PS3 ook al kost het ding 99 euro, maar dat is gewoon omdat het overgrote merendeel van de spellen op de playstation 1, 2 en waarschijnlijk 3 niet interessant vindt.
Oeps daar missen heel wat woorden. Excuses voor de onleesbaarheid, maar ik was eigenlijk met drie dingen tegelijkertijd bezig.
Edit je post dan ipv. nog meer onzinnige replies te maken....
Zelf ben ik zeer geďnteresseerd in de 8800GTX, maar ik wacht nog even tot na de kerst met het kopen van een nieuw systeem. De eerste reden is dat na kerst waarschijnlijk de prijzen omlaag zullen gaan en ten tweede komt in januari Windows Vista voor de consument op de markt. Het is dus wat omslachtig om dan nu nog Windows XP op je systeem te installeren, om vervolgens een maand later naar Windows Vista te upgraden. Persoonlijk denk ik dat deze twee factoren meespelen in de huidige lage verkoopcijfers van de G80 videokaarten.
Persoonlijk denk ik dat deze twee factoren meespelen in de huidige lage verkoopcijfers van de G80 videokaarten.
Is dat jouw persoonlijke mening? Het lijkt eerder precies op wat er in de startpost staat geschreven. Parafraseren heet dat...
maar hij heet toch ook Copyman, wat wil je :+
Kan je zo een kaart in SLI opstelling met bijvoorbeeld een 7800 combineren? Heb je dan ook volle DirectX10 mogelijkheden?
Bij SLI dienen de kaarten indentiek aan elkaar te zijn, dus: Nee dat kan niet.

edit:@aval0ne nou sorry mischien verkeerd geformuleerd, maar dat was wel idd wat ik bedoelde.
Dit is uiteraard onzin. De kaarten moeten helemaal niet identiek maar wel dezelfde core bevatten en evenveel geheugen. Da's de enige voorwaarde.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True