Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 88 reacties
Bron: VR-Zone

VR-Zone heeft uit Japanse bronnen een lijst met specificaties en andere informatie over de volgende generatie GPU van nVidia geplukt. De G70-core wordt volgens het bericht op 22 juni aangekondigd, een paar weken na de eerder geopperde introductie tijdens Computex. In eerste instantie zouden er drie smaken van de nieuwe chip op de markt worden gebracht. De basiseditie krijgt volgens de bron de niet bijster originele naam GeForce 7800, maar deze zou worden vergezeld door twee broers, namelijk de 7800 GT en 7800 GTX. Wat precies de verschillen tussen deze uitvoeringen zijn is niet duidelijk, maar wel wordt gezegd dat de GTX het topmodel is. Tevens zou dit de enige van de drie zijn die SLI ondersteunt.

G70 wordt volgens de informatie op 0,11 micron gebakken door TSMC. In ieder geval het topmodel zou 24 pipelines bevatten en op 430MHz geklokt worden. Hiermee zou hij in totaal ruim 10 gigapixels per seconde uit kunnen spugen, ruim 60% meer dan de huidige GeForce 6800 Ultra aankan. De chip zou daarnaast 43% meer vertices kunnen verwerken dan de huidige generatie: 860 miljoen per seconde. Dit duidt erop dat het aantal vertex shaders is verhoogd van zes naar acht. Er zou gebruik gemaakt worden van 256MB GDDR3-geheugen met een effectieve kloksnelheid van 1,4GHz om de core te voeden met informatie. Hoewel deze specificaties niet de grootste uitspraken van 'twee keer zoveel prestaties' ondersteunen die iedere keer weer opduiken voor een nieuwe GPU wordt uitgebracht, komen ze redelijk goed overeen met de algemene, realistische verwachtingen.

Verdere verbeteringen in G70 ten opzichte van NV45 zouden zijn aangebracht op het gebied van shaders en anti-aliasing, maar een hele grote stap qua features lijkt in ieder geval niet gezet te worden: De basis blijft nog altijd Shader Model 3.0. Het gaat hier dan ook meer om een refresh van de bestaande technologie dan om een nieuwe architectuur. Hoewel eerdere geruchten beweerden dat de G70-generatie niet zo warm zou worden als zijn voorgangers, zou nVidia nog steeds eisen stellen aan de gebruikte voeding. Voor een enkele kaart wordt minimaal een 400 watt-voeding aangeraden, en voor een SLI-opstelling is dat zelfs 500 watt.

nVidia Forceware-cd met GPU's
Moderatie-faq Wijzig weergave

Reacties (88)

SLi wordt nu al van de baan gegooid? Lijkt me sterk zijn zelfss nu bezig met de 6600 SLI compatible te maken :?
En komen er dan geen 7200 en 7600 kaarten ? |:(

Edit: SLi van de baan bedoel ik mee dat ze alleen het topmodel van de topmodellen ermee uitrusten. Alsof ze alleen de 6800U Sli zouden geven en de 6800 en 6800GT niet.
Het is een beetje een mes dat langs 2 kanten snijdt.
Ergens begrijp ik wel dat ze enkel voor het topmodel SLI aanbieden.
De theorie van je koopt eerst 1 budget kaart en over een jaar ofwat een 2de is mooi. Maar : je moet dan precies dezelfde kaart weten te vinden. Zelfde geheugenchips en weet ik wat nog. Wel de kans dat zelfs 1 en dezelfde fabrikant de geheugenmodules van een bepaalde kaart wijzigt is niet verwaarloosbaar.
Daarenboven kan je na een jaar beter je kaart verkopen en een 2de hands erbij kopen. Een 6600 SLI opstelling doet het vaak niet beter dan een enkele 6800.
Dus voor diegene die geld te veel hebben of echt ultra-high-end willen gaan 2 topmodellen naast mekaar.
Nu SLI met de 6600 serie introduceren was voldoende om de hype in gang te zetten. Dat merk je al bij reacties op het feit dat windows 2000 geen sli ondersteuning zal krijgen.
Ik begrijp wel dat ze enkel voor het topmodel SLI aanbieden. Maar ik begrijp niet waarom ze dat op dit moment doen.

Bij de 6800 serie konden ze dat prima doen aangezien er geen concurrentie was.
Maar wanneer die 7800GTX op de markt komt verwacht ook iedereen dat ATI hun MVP oplossing klaar zal hebben tesamen met R520. En daarbij is het waarschijnlijk helemaal geen probleem om over een jaar een kaart toe te voegen als goedkope upgrade. (omdat je niet exact dezelfde kaart hoef toe te voegen)

En daarbij vergeleken steekt SLI van de 7800GTX dan ineens erg schril af. Dat gaat ze dan opbreken in elke review die er gemaakt word. Kun je je een reviewer verzinnen die dat niet als groot nadeel van SLI gaat noemen tov MVP. Dat zal Nvidia niet willen, dus ik kan me dan ook niet voorstellen dat ze dat werkelijk gaan doen.

En er komt vast ook iemand die ontdekt op welke wijze Nvidia de andere 7800 modellen blocked in de drivers en daar een hack op maakt.
Om de redenen die je noemt, zoals het veranderen van de chips door de fabrikant, is SLI inderdaad niet echt handig. De ATI oplossing, wanneer ze die een keertje uitbrengen, kan echter twee verschillende kaarten aan elkaar koppelen. Dan is het hele gebeuren opeens wel interessant, omdat je dan je oude kaart niet hoeft weg te gooien wanneer je een nieuwe koopt.
In de laatste ForceWare-drivers worden al iets van 10 of 12 verschillende varianten van G70 ondersteunt. De drie 7800-kaarten lijken me dus slechts het begin, later zullen er heus nog wel 7200, 7400, 7600, etc. volgen :).
Inderdaad. Eerst naam maken en patsen en dan de "spin-offs" op de markt brengen voor iedereen die een GeForce 7 wil :)

En over die SLI, misschien heeft nVidia ingezien dat SLI enkel gebruikt wordt door power-users. Mijn 6600GT heeft wel SLI-ondersteuning maar ik denk dat ik eerder zal overstappen op een 7xxx dan dat ik er een 2de kaartje bij prik.
de 7200 en 7600 kaarten komen altijd pas een paar maanden later. dat is elke generatie al zo geweest.

verde willen ze geld slaan uit mensen met te veel geld die SLI willen. daarom is alleen het top model SLI compatible.
Weten jullie wat het mooiste van alles is.

De titel zegt het al.

Mogelijke specificaties!!

Hoeft dus niet. Zijn allemaal speculaties.
Toen de mogelijke specificaties van de R520 uitlekten was er bijna een hype van welke kaart het beste zou zijn.

Echter ben ik van mening dat men nu een beetje conclusies aan het trekken is terwijl zelfs de eerste samles nog niet eens verstrekt zijn en er nog geen enkele krachtmeting is geweest.

En alle vergelijkingen tot nu toe en nu ook gemaakt worden op basis van bijna opschep specificaties van fabrikanten en of uitlek / gerucht specificaties.
Ik vind het wel mooi; mensen die nog geen 6800ultra hebben kunnen 'm straks uit de budget bak grabbelen voor 150 euries :7
2x grabbelen voor SLI
en ondertussen verbreekt de geforce 7800 alle records
Ik vind het vreemd dat de gpu codenaam G70 krijgt maar wel gewoon een uitbreiding 'zou' zijn van de bestaande 6800 reeks, ook al omdat de kaarten GF 7800 gaan heten.
Als deze kaarten inderdaad gewoon een extentie zijn van de bestaande NV4x reeks waarom dan G70? Waarom niet NV50?
G70 lijkt me net gekozen om aan te duiden dat die reeks helemaal verschilt van de NV4x reeks.
Daarom heb ik mijn twijfels over dit artikel.
Toch knap dat mensen meer informatie uit een codenaam denken te kunnen halen dan uit een beetje gezond verstand. NV stond altijd voor nVidia, maar omdat ze tegenwoordig niet alleen videochips meer maken hebben ze de codenamen opgesplitst in Cxx voor chipsets en Gxx voor graphics, zo simpel is het. Er is ook geen enkele reden om op dit moment een compleet nieuwe architectuur uit te brengen: DirectX 9.0c met SM3 en OpenGL 2.0 worden al ondersteund door de huidige NV4x-architectuur. Het volgende blok nieuwe features hoeft pas ondersteund te worden als de Windows Graphics Foundation wordt geÔntroduceerd.
Windows Graphics Foundation 1.0 = DX9.0c (voor backwards compatible)
Windows Graphics Foundation 2.0 = DX10

Worden allebij pas in longhorn geintroduceert.
die naam staat al heel lang op de nvidia roadmaps. Dat is dus niet uit de lucht komen vallen. Ik weet echter niet waarom ze niet de NVxx naamgeving hebben laten vallen.
Mischien omdat deze kaart (ongeveer) even snel wordt als de nieuwe ATI, die WEL van een nieuwe serie wordt?
Ik denk dat het zoiets is, want als men weet dat de Radeon X800 tegenover de Geforce 6800 staat, dan denkt de normale consument dat een Radeon 11800 sneller is dan de Geforce 6900.

ATI heeft trouwens ongeveer hetzelfde gedaan met de Radeon X serie, die voortgebouwd is op de Radeon 9 serie, maar qua snelheid wel kan meekomen met de nieuwe Geforce 6 serie.
Maar 256mb geheugen? Dat betekent dus dat de nieuwe generatie dezelfde hoeveelheid geheugen krijgt als de huidige, terwijl er nu al 512mb versies zijn van enkele huidige kaarten. Of het wordt toch gewoon 512mb of het duurt lang voor dat er ook 512mb versies van de nieuwe kaarten uitkomen.
'maar?'
512mb is gewoon overbodig, gelukkig zien fabrikanten dat ook, scheelt ook in prijs
dit zelfde werd ook gezecht van 256MB op een Vid Kaartje... denk dat binnen nu en volgend jaar toch wel speletjes/app's die wel gebruik willen maken van dat geheugen.. of dat de kaatjes een RAM slot krijgen... zo dat indien nodig je toch nog MEM kan uitbrijden zonder een nieuwe kaart te kopen..
In enkele gevallen heeft 512mb wel nut met de huidige kaarten. Ik denk dat het daarom zeker wel nut heeft om 512mb te plakken op een GTX kaart, omdat 256mb voor zoveel rekenkracht toch wel karig is.
Er zullen heus wel 7800GTX modellen komen die 512MB geheugen aan boord hebben :) Maar de prijs die er voor zal moeten betalen zal niet min zijn :Y)
Als je kijkt dat de GeForce 6800 Ultra met 512 MB $999 moet kosten houd ik mijn hart vast.

Maar goed dat mijn FX5900 voor mij nog prima presteert. Ben toch niet zo'n gamer als vroeger :)
700 euro in de pricewatch. XFX 6800U 512mb. Het valt dus nog wel "mee"
De nVidia GPU van de PS3 zou wel 2x zo snel zijn als de 6800U. Beetje raar dat de G70 dat niet is dan :?
omdat ie ten eerste op 110nm gemaakt wordt (tov van 90nm ps3), en dus niet zo hoog geklokt kan worden. TEn tweede heeft de playstation chip een hele andere architectuur dan de g70. Appels met peren dus.
Dan nog, waarom nemen ze dan niet die PS3 GPU in productie voor de pc of in ieder geval een qua prestaties gelijke GPU :?
als we eindelijk 3d mark op ps3 en de g70 kunnen draaien weten we het nog een jaartje wachten
Omg lol. 3dmark op de ps3. En nog een jaartje w88? Je hebt duidelijk niet al te veel kaas gegeten van dit onderwerp :)
door te stellen dat alleen het topmodel de 7800GTX SLI ondersteunt geven ze dus eigenlijk toe dat ze met SLI alleen richten op de topplaatsen in de 3Dmark hall of fame en niet eens op de upgrade mogelijkheden van de middenmoot waar de SLI oplossing juist wat mij betreft het nuttigst leek.

zonde als dit echt waar blijkt te zijn
Vergeet niet dat dit hier enkel om de 7800 kaarten gaat. Later komen er ook allicht nog 7600 kaarten ofzo, waar zeker ook een SLI kaart zal bij zitten, dus daar gaat je mid range kaart met SLI zitten.
ja je zal vast gelijk hebben maar ik ga alleen even uit van dit nieuwsbericht
Vast gelijk? Als er bij die midrange 'zeker' een SLI kaart dan zou het onzinnig zijn om dat bij de highend niet te doen.

Ik denk dat hij vast ongelijk heeft. (Ik denk trouwens ook niet dat Nvidia zo dom zou zijn om SLI te castreren)
Gezien het staaltje techniek ze in elkaar hebben gestoken voor de PlayStation 3 kunnen ze de PC toch niet achterlaten hť ;)

Trouwens, zou het denkbaar kunnen zijn dat nvidia de RSX chip op een kaartje prikt voor de PC markt ? Een RSX GPU zou gewoon 2x GForce 6800 Ultra SLI ver achter zich laten.

Officieel leesvoer kan ik niet geven want het zijn maar geruchten, maar toch....
RSX is een 0.09u variant van de G70 + de nodige PS3 tweaks.

Verhoog de kloksnelheid naar 550Mhz met 24 pipelines en je hebt een fillrate die dubbel zo groot is als de GF6800U (vandaar ook het cijfer dat de RSX 2x zo snel zou zijn als een GF6800U SLi). nVidia heeft officieel aangegeven dat ze dit jaar nog een desktop versie van de PS3 GPU zouden uitbrengen. G7x is de enige nieuwe generatie die dit jaar gepland staat.
Gezien het staaltje techniek ze in elkaar hebben gestoken voor de PlayStation 3 kunnen ze de PC toch niet achterlaten hť
Dat kunnen ze helaas wel, want ATi en nVidia hebben nu beide een contract met de fabrikanten van de toonaangevende consoles van de toekomst. Sony en Microsoft willen natuurlijk niet dat hun consoles een paar maanden na lancering alweer verpletterd worden door de PC's. De chips van ATi en nVidia zullen mogelijk niet zo hard vooruitgaan als normaal het geval zou zijn.
verpletterd worden zullen ze niet zo gauw, ik denk dat de prijs van zo'n kaart eerder verpletterend is en dat een consument denkt: daar heb ik ook een PS3 of een XBOX360 voor...
Trouwens, zou het denkbaar kunnen zijn dat nvidia de RSX chip op een kaartje prikt voor de PC markt ? Een RSX GPU zou gewoon 2x GForce 6800 Ultra SLI ver achter zich laten.
Onwaarschijnlijk. De RSX is zover geÔntegreerd met de Cell-architectuur dat hij eigenlijk niet zonder gebruikt kan worden. Als er geweldige nieuwe ideeŽn in zitten zullen we die heus nog wel ooit terugzien in pc's (G80?), maar de RSX simpelweg kopieŽren is niet echt een optie.
Waarom bouwen ze dan niet een kaart met RSX en Cell CPU. Kan je direct gebruik maken van de vector/DSP functionaliteit van de Cell core. Dan gaan je games pas echt vloeiend!
'Cell', the massively parallel processing chip currently being designed by Sony and IBM,
Denk dat Nvidea meer voor zijn eigen chips kiest dan die van Sony/IBM
Deze specs vallen mij wat tegen , nu we de eerste filmpjes van UT2007 gezien hebben van Epic , denk ik toch dat ook deze kaart een dergelijke game niet zal kunnen slikken. Even wachten op de daaropvolgende generatie dus :)

Persoonlijk kijk ik uit naar Quake4 , RTCW2 en UT2007 en ik wil deze voeiend kunnen spelen op mijn 22" op minimum 1280x1024 , even wachten dus op de grafische monsters van 2006 :)

Of misschien dan toch overwegen, eens een console te kopen :+
Deze specs vallen mij wat tegen , nu we de eerste filmpjes van UT2007 gezien hebben van Epic , denk ik toch dat ook deze kaart een dergelijke game niet zal kunnen slikken. Even wachten op de daaropvolgende generatie dus
Dat is inderdaad, met de huidige stand van zaken en kennis van zowel UT2007 als deze gelekte specs, een veilige aanname 8)7

M.a.w.: }:O -poep.
Persoonlijk kijk ik uit naar Quake4 , RTCW2 en UT2007 en ik wil deze voeiend kunnen spelen op mijn 22" op minimum 1280x1024, even wachten dus op de grafische monsters van 2006

Pff, Quake4 draait op de Doom3 engine.... Wat nou "wachten"? :|
Hoeveel tijd zou er zitten tussen de aankondiging en de daadwerkelijke levering???
Zou die dan rond het derde kwartaal leverbaar zijn of pas rond kerst??

Prijs van het topmodel zal wel rond de 600 euro zweven ben bang, aangezien dit bijna altijd wel gebeurd met nieuwe top kaarten...

Ik denk dat Nvidia de boot gaat missen als idd alleen het topmodel SLI ondersteund...
Het zit er dan in dat ze marktaandeel aan Ati kwijt raken wanneer zij wel hun "goedkopere" modellen verkopen die wel hun variant van SLI ondersteunen...
Ik denk dat Nvidia de boot gaat missen als idd alleen het topmodel SLI ondersteund...
Het zit er dan in dat ze marktaandeel aan Ati kwijt raken wanneer zij wel hun "goedkopere" modellen verkopen die wel hun variant van SLI ondersteunen...
Waarom? Goedkopere modellen ondersteunen wel SLI, dit zullen dan namelijk de 6800 kaarten zijn. Echt budget SLI krijg je dan met de 6600 kaarten.
/quote
De basiseditie krijgt volgens de bron de niet bijster originele naam GeForce 7800, maar deze zou worden vergezeld door twee broers, namelijk de 7800 GT en 7800 GTX. Wat precies de verschillen tussen deze uitvoeringen zijn is niet duidelijk, maar wel wordt gezegd dat de GTX het topmodel is. Tevens zou dit de enige van de drie zijn die SLI ondersteunt.
/quote

Hier wordt aangegeven dat alleen het topmodel SLI gaat ondersteunen, dus heb je kans dat Ati in dat open gat springt...
Door wel "budget" modellen met hun versie SLI te gaan uitbrengen...
Ik geloof dat NV48 de "budget modellen" worden die SLi ondersteunen. NV48 is voor zover ik weet nu de 0,11u variant van de GF6800GT en GF6800U (zie ook de device ID in de drivers waarin NV48 als GF6800GT en GF6800U worden aangeduid). Voor nVidia is dit natuurlijk goedkoper dan de duurdere NV40/NV45 te blijven produceren op 0,13u. En ze hebben al de 12 pipes NV42 (gebruikt in bv de GF Go 6800U) op 0,11u zitten die zeer goede snelheden haalt.
Ik heb je post wel gelezen, maar bij de nieuwe kaarten komt er maar 1 met SLI ondersteuning...
Daar doelde ik op....
Niet op het feit dat de 6800 serie wel bijna allemaal SLI ondersteunen, dat die een tree lager komen te staan is logisch...
Dat Nvidia ervoor kiest om alleen het nieuwe topmodel SLI te geven en niet diegene daar onder, dus de nieuwe GT, lijkt mij een gemiste kans...
Heb je mijn post wel gelezen? De 6800 reeks worden de budget SLi modellen van zodra de nieuwe topkaart er is.
Valt me beetje tegen als dit echt waar zou zijn...

Niet dubbele prestatiewinst.. warmer dan eerst gedacht en toch nog hoge voedingeisen.

Persoonlijk voel ik er niks voor om deze kaart in huis te halen... Ga maar van een prijs richting de 500eur uit.
Als je Ps3 haalt heb je een snellere kaart voor minder geld. Oke je kan er minder mee.. maar ga ervanuit dat je 500eur betaald om ook te kunnen gamen.

;)
Waarom, er is een porbleem op dit moment met de grafische kaarten. Elke huidige high end en zelfs midrange kaart kan elke game goed draaien. Zelfs Doom≥ is voor sommige kaarten niet echt een probleem. Wat hebben we aan nog snellere kaarten als de games geen snellere kaart nodig hebben? Een 9800Pro wordt nu nog altijd verkocht als midrange, die kan nog aardig mee, en ik al meer als 2 jaar oud!
Jah inderdaad
ik draai alle spellen nu nog op mijn (overgeklokte) ti4200 (meeste spellen met detail op hoog zelfs!)
K er zitten niet van die mooie shaders enzo in maar toch
ik ga denk ik mee met de generatie hierna

Waar de ps3 slecht in is is het uitrekenen van de AI
laat dat nou net eens een van de dingen zijn waar vandaag de dag veel aandacht aan wordt besteed (call of duty 2 bijv)

Daar zit de echte winst

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True