Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 55 reacties
Bron: Xbit Labs, submitter: aliencowfarm

Nvidia zal op 12 november zijn G92-videochip introduceren, zo melden bronnen van X-bit Labs. Opvallend is het hardnekkige gerucht dat de chip wel een aantal nieuwe features biedt, maar niet krachtiger is dan het huidige topmodel.

De G92 zou onder andere ondersteuning toevoegen voor DirectX 10.1, pci-express 2.0, Displayport, hdmi en een verbeterde PureVideo HD-engine. De op 65nm gebakken chip zou echter niet krachtig genoeg zijn om tegen de in mei aangekondigde GeForce 8800 Ultra op te boxen. In plaats daarvan wordt hij gericht op het 'performance-mainstream'-segment, meer het gebied waar de 8800 GTS op dit moment in speelt.

X-bit noemt het echter 'hoogst onwaarschijnlijk' dat nVidia degenen die het beste van het beste willen in de kou zal laten staan. Eerder dit jaar heeft het bedrijf nog beloofd dat we in 2007 videoprocessors met een rekenkracht van bijna een teraflop zouden zien. Dat is ongeveer het dubbele van wat nu gehaald wordt.

Hoe nVidia dat precies wil gaan aanpakken is nog niet helemaal duidelijk. Sommige bronnen zijn ervan overtuigd dat G92 niets meer is dan het kleine broertje van een later aan te kondigen G90. Deze zou - als de huidige trend wordt voortgezet - meer dan een miljard transistors kunnen hebben.

Een andere theorie is dat meerdere G92-cores samengeplakt zullen worden op een kaart om de prestatiehonger van de high-end te stillen. Het zou niet de eerste keer zijn dat men naar een dergelijke oplossing grijpt; een recent voorbeeld is de GeForce 7950 GX2. Deze constructie kan echter problemen geven als de software niet met sli om kan gaan.

De laatste optie is dat het hele gerucht dat G92 niet sneller is dan de 8800 Ultra in het leven is geroepen om de concurrentie op het verkeerde been te zetten. Er zijn namelijk ook geruchten die de G92 wťl als krachtpatser kenmerken.

Nvidia GeForce 8800 Ultra
Nvidia GeForce 8800 Ultra
Moderatie-faq Wijzig weergave

Reacties (55)

Het is niet gek dat Nvidia ons probeert lastig te maken wat voor kaart eraan komt. We moeten maar hun woorden geloven dus uiteindelijk hebben de heren van Nvidia de touwtjes in handen om vele geruchten te kunnen starten. Doel lijkt me gewoon om Ati/AMD te misleiden zodat ze niet meer weten in welke gerucht ze moeten geloven en of ze harder moeten gaan werken aan de R700.

Wat ik mij afvraag is wanneer komt DX10.1 uit komt en zullen er gamedesigners zijn die er staan te springen om de nieuwe versie (zie Valve artikel: nieuws: Valve: DirectX 10 is nog nergens voor nodig ). Verder is het opmerkelijk dat we pas de eerste DX10 kaarten op de markt hebben en men spreekt nu van kaarten die DX10.1 gaan supporten. Het lijkt er mij op dat DX10.1 nog een lange weg te gaan heeft en dat ligt aan DX10 die zich niet zo populair maakt vanwege dat deze alleen beschikbaar is voor Windows Vista.

Als Bill de grafische sector een impuls wilt geven dan zal hij DX10 moeten ontwikkelen voor windows xp. Er zijn weinig spellen die DX10 ondersteunen. We kennen nu pas 3 spellen die DX10 shaders gebruiken (bioshock, lost planet en supreme commander). Wat het boeltje vertraagt is dat men veel liever XP wil dan Vista + dat men het nut er niet van ziet om een dure DX10 kaart aan te schaffen omdat men 3 spellen in DX10 mode kan spelen (als men ook nog eens vista wil gaan draaien)

Er liggen dus 2 knopen in het proces:
- Windows Vista.
- Dure kaarten voor normale gameplay in DX10.

Maar ik moet erbij zeggen dat men met deze nieuwspost iedereen in de war word gestuurd. wat moeten we nu geloven. ik wacht wel tot november wanneer de eerste reviews worden gepost en de eerste benchmarks met DX10 worden gedaan.

Wat ook leuk is, is dat men de DX10.1 kaart niet kan testen vanwege dat DX10.1 nog niet uit is. Het zal dus gokken worden voor de reviewer wat voor presentatie's het gaat afleggen op DX10.1 gebied.

1 ding weet ik wel, doordat ontwikkelaars voorzichtig zijn met DX10 zal het nog een hele jaar kunnen duren voordat DX10 uiteindelijk in elke spel te vinden is. Dan spreek ik nog niet over DX10.1 die waarschijnelijk hetzelfde traject doorloopt als DX10.

Denk maar aan de ontwikkelaar 'Crytek' die crysis maakt, eerst zal het spel alleen op DX10 verschijnen maar weinig gamers hebben vista + DX10-kaart in hun computer waardoor Crytek besloot DX9 te supporten. Er zijn een paar vergelijking video's over het internet gegaan 'DX9 versus DX10'. Sommige mensen denken dat ze in de DX9 stukje van de video de Texture op low hebben gezet en de HDR op off zodat het lijkt DX10 beter is.

Link vergelijking DX9-10: http://video.google.nl/vi...o=0&type=search&plindex=1

Voor mij is het gewoon: eerst zien dan geloven. Bedrijven zoals MS en Crytek doen alles om meer geld te verdienen.

[Reactie gewijzigd door Blowthebullet op 3 september 2007 22:54]

er was al een artikel dat aangaf dat het invoeren van DirectX 10.1 kan worden ingevoert met behulp van enkele regeltjes ofzo.

dus niemant zal erom staan te springen maar denk wel dat de DirectX 10 spellen directX 10.1 worden.

en voor de gamer is het toch leuk
Supreme commander is volgens mij geen directX10 en Bioshock kan je spelen met 9. Lost planet weet ik niet, maar Halo 3 dan weer wel. In ieder geval, ik heb weinig zin in Vista, maar ik heb wel een 8600gts. Opzich vind ik wel dat directX10 mooie dingen meebrengt en zou er zelfs geld voor over hebben om directX10 op Xp te kunnen krijgen. Nu houd MS mij een soort verplichting voor om die ene game die ik graag zou willen spelen alleen op Vista uit te brengen, terwijl ik Vista eigenlijk niet wil... Op een gegeven moment stopt de ontwikkeling voor directX9 denk ik.
De ontwikkeling stopt voor DX9 eerder als MS DX10 uitbrengt voor XP. Ik zie niet zo gauw dat Valve een DX10 engine aan het maken is. Het is gewoon TE VROEG ervoor. de eerste generatie kaarten zijn er op de markt en nu praat men over DX10.1 wat ik nogal wonderbaarlijk vind.

Er zijn ongeveer een kleine groep gamers die een Geforce 8xxx hebben + vista. Daarom vind ik het wonderbaarlijk dat men nu al over DX10.1

DX10.1 is nog toekomstmuziek en BETA!! Laat eerst DX10 zich bewijzen in crysis, dan praten we verder ;).

en ja Supreme Commander is er speciaal in DX10 (kijk naar de systeemeisen: forum: ~[RTS] Supreme Commander - Deel 4
Bioshock is in 9 en 10 + Lost Planet is in 9 en 10 dankzij MS ;)
Opvallend is het hardnekkige gerucht dat de chip wel een aantal nieuwe features biedt, maar niet krachtiger is dan het huidige topmodel.
In juli klonk het nog zo:
De GeForce 9800 moet volgens de forumpost ruim dubbel zoveel rekenkracht als de GeForce 8800 Ultra gaan leveren
Bron: http://core.tweakers.net/...8800-opvolger-bekend.html (ook van Xbit Labs)

[Reactie gewijzigd door Cyberblizzard op 3 september 2007 20:22]

Jaja marketing stategie... net zoiets als de eerste "introductie prijsvoordelen"
De werkelijkheid ligt vaak ergens in een of ander midden.

[Reactie gewijzigd door fevenhuis op 3 september 2007 21:00]

Dat was te verwachten,he anders hete hij wel G90, had er al mijn twijfels bij...
Maar dit zijn wel geruchten, he. Die andere bron had nVidia volgens mij wel zelf geverifiŽerd.

[Reactie gewijzigd door SirKay op 3 september 2007 21:13]

@ Cyberblizzard:
Dat is nou precies het eerste wat ik dacht toen ik dit artikel las.
Fraai is dat weer, ik sla expres de eerste serie DX10 kaarten over omdat hun performance op dat gebied toch te karig is.
Beginnen ze nu ineens te zeggen dat het nieuwe model slechts een verbetering zal zijn.
Hopelijk blijft het bij de geruchten.
Men ziet hier constant DX10.1 vs DX10 als een upgrade, maar dit is dus, zoals allang uitgelegd, niet het geval.

Het is een iets andere featureset, waarbij het waarschijnlijk zo zal zijn:

DX9, DX10 en DX10.1 bestaan allemaal naast elkaar tot een bepaald moment (anders vernietig je je doelgroep trouwens)

Daarna zal DX9 geleidelijk gaan afvallen.

Ow en voor de gamers is dit hele gedoe van de afgelopen 2 jaar helemaal niet leuk.


Als voorbeeld de shooters en hardware


-Wij constant upgraden, dan voordat er uberhaupt games zijn, gaan ze alweer naar iets anders lopen miepen.

-2 jaar na BF2 nog geen fatsoenlijk FPS(sorry maar BF2142 is gewoon BF2 met ander lookje, punt), en nu komen ze ineens met 6 bij tegerlijkertijd uit. (Call of Duty 4, Crysis, ETQW, Frontlines Fuel of War, Medal of Honor Airborne, Bioshock).

[Reactie gewijzigd door Pimpy op 3 september 2007 23:30]

Ik vindt het vooral erg vervelend dat er door gebrek aan een goede concurent van de 8800 serie die prijzen al zeker 7 maanden dezelfde zijn :(

Want die nieuwe kaart die gaat echt wel BOVEN de huidige prijs zitten van de 8800GTX. Dus rond de 700 pleuro. En zoals het er nu uitziet zal deze heel lang daar blijven staan.

Ik vindt het ook van de zotte dat mensen nu alweer hun 8800GTX willen verkopen! Als men nu eerst eens wacht totdat er werkelijk een game uit is die DX10.1 ondersteund. Dan heb je er teminste nog wat aan. Reinste kapitaalvernietiging om nu al te schreeuwen dat je een dx10.1 kaart wilt.

Speel bioshock maar eens op dx9 en dx10, de enige verschillen zijn: schaduw effecten iets mooier en het water beweegt als je er doorheen loopt. En dat ruim 10 maanden sinds de 8800 dx10 kaart is uitgekomen.

De schok zal groot zijn onder de early adapters, als blijkt dat crysis met dx10 minimale verbeteringen laat zien tegenover DX9. Mede omdat DX9 nu pas volwassen is tegenover DX10.
tot de introductie of ieder geval tot kort voor de introductie van de 8x was het gerucht dat de geforce 8x geen unified shaders had, nvidia lekt niet
nVidia lekt niet?

Ze lekken wel degelijk. Alleen verspreiden ze daarnaast zoveel onzin en halve waarheden dat de echte waarheid vaak moeilijk is uit te filteren.

Voordat echt de officiŽle bevestiging kwam dat de G8x unified was waren er al behoorlijk wat geruchten in die richting geweest, gevoed door "lekken". Er waren alleen een heel stuk meer geruchten naar aanleiding van "lekken" die het tegendeel beweerden.

Wat ze doen is een dik rookgordijn opgooien. Dit kost klaarblijkelijk minder moeite/tijd/geld dan het angstvallig geheim houden van dit soort gegevens. Bovendien houdt 't je merknaam constant in 't nieuws (= reclame). En je concurrent in het duister.
Drie vliegen in ťťn klap dus.

Een mailtje naar een hardware site of post op een forum (of blog) door een zelfbenoemde quasi nVidia insider is vaak genoeg om een cascade aan nieuwsposts te triggeren.
(No offense aan T.net en X-bit uiteraard.)

[edit]
Het nadeel is natuurlijk dat je als nieuwsgierige tweaker nooit echt zeker bent waar de waarheid precies ligt. Totdat de officiŽle release gegevens gepubliceerd worden door nVida en/of totdat de NDA weer eens is verstreken. :/

[Reactie gewijzigd door houseparty op 3 september 2007 23:33]

nVidia lekt wel, maar ze weten iedereen toch altijd in twijfel te laten zitten door ook bewust foute informatie te verspreiden. En dat is behoorlijk irritant voor mensen die graag weten wat er allemaal aankomt ;)
originele bron van de 12 november geruchten:
http://www.digitimes.com/mobos/a20070829PD216.html

ik gok op een 2x G92 als hi-end
de G92 zou minder ALU's hebben maar die zouden hoger geklokt zijn dan de G80, de G92 zou ook een 256bit bus hebben.

[Reactie gewijzigd door oeLangOetan op 3 september 2007 20:19]

Kan kloppen ja. AMD wil hetzelfde doen met de RV670. Die heeft iets minder performance dan de R600. Maar is goedkoper en verbruikt veel minder stroom. En twee van die dingen samen zijn weer veel sneller dan de R600.
Ik gok op een 8700-reeks. Er is nu geen kaart die er echt tussen hangt. De 8600GT kan door de 128-bit bus echt niet meer mee komen en loopt ook achterlijk achter op een vorige generatie high-end. Een X1950Pro maakt er gewoon gehakt van. Denk dat er een 256-bit bus op komt zodat deze kaart een beter alternatief is voor het midden segment. DX10.1 zit er gewoon op omdat het een nieuwere chip is. Die lijkt me dan ook gewoon geÔmplementeerd omdat het kon zeg maar.
dan zou de codenaam G8x zijn... niet G92
Het was wel een beetje te verwachten. De concurrentie (ATi/AMD) is nog steeds ver verwijderd van de performance van een 8800Ultra. Gewoon slimme marketing, ze liggen voorop dus ze kunnen het zich permitteren om wat rustig aan te doen en gemakkelijk geld binnen te slepen.

ATi deed hetzelfde met de 9800Pro en 9800XT, die slechts marginaal sneller waren dan de goede oude 9700Pro.
Nou, sowieso een grafische kaart van 250 euro waar je games op medium/high settings mee kan spelen en AA op 2, op 25 ŗ 30FPS zou weleens mogen.
En ook die VC1 ondersteuning mag weleens stukken beter. Zowel bij ATI als NVIDIA. Hardware-encoding, zoals voor mpeg2 dacht ik, zou ook maar standaard moeten worden.

De huidige kaarten zijn in verhouding te duur voor hun prestaties in de gemiddelde game. Ik noem maar iets: Supreme Commander is niet vlot te spelen op een gamer zijn computer die ipv in een dure Creative geluidskaart, in een breedbeeld TFT heeft geÔnvesteerd bijvoorbeeld. En dat tesamen met een - imho al duur genoeg - videokaart van 250 euro.
Hopelijk gaat de prijs van de gewone 8800GTX nu naar beneden. Dan kan ik er twťť in SLI zetten :)
Het word trouwens hoog tijd dat ze of eens wat beter gaan programmeren of wat sterker spul op de markt brengen. Er zijn nog altijd geen betaalbare configuratie's die Oblivion vlot spelen met 1680 x 1050 met alle opties op maximum en AF 16x + AA 4x
Het jammere is wel dat de 8800GTX nŪet overweg kan met DX10.1, wat de G9x wel kan. Voordeel is wel dat je dan twee brute kaarten (88xx in dit geval) naast elkaar kunt zetten voor een mindere prijs.

Ik denk dat ik mijn huidige 8800GTX ga verkopen om hierna up te graden naar een G9x. Dat lijkt mij een beter toekomt-gericht idee dan een 8800GTX in SLI persoonlijk. :)
Ik heb er anders geen problemen mee in 1920x1200 http://www.stijndp.be/hardware/mmvii/mmvii.html
8800GTX SLi <> Betaalbaar
Ik heb Oblivion met een standaard GTX zelfs in 3360x1050 gespeeld met 16xAF en 16xAA. Bolde perfect, geen hiccups of niks. Verbaasde me zelfs dat Oblivion die rare resolutie zomaar aanpakte. (2x 20" widescreen horizontaal gespand)
hahah, dat moet lekker gespeeld hebben xD

maarem, ben je daarmee naar buiten gegaan? En had je, los van AF en AA de ingame settings wel op max staan?
Nou is Oblivion wel het spel dat een zware graka nodig heeft, maar het gaat bij deze nieuwe kaarten meer om de DX10 implementatie (oftewel nog helemaal niet zo boeiend)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True