Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 78 reacties
Bron: Xbit Labs, submitter: Renzo24

Het Taiwanese VR-Zone heeft enige tijd een lijstje met specificaties van nVidia's nieuwste graphics core op zijn website vermeld. De pagina is inmiddels gewist, maar desondanks - of juist daarom - trekken kopietjes van de informatie veel bekijks. Uit de tekst zou ondermeer blijken dat de G80 meer dan tweemaal zoveel transistoren telt als andere nVidia-gpu's, en dat de chip beschikt over de nieuwe antialiasingmode 'VCAA', een 384bits geheugenbus en acht zogeheten TCP's. TechReport denkt dat het daar om Thread Control Processors gaat, maar net als de rest van de informatie is dat pure speculatie. Volgens de Taiwanezen weten we in november of de cijfers kloppen, want dan zouden de GeForce 8800 GTX en de 8800 GT op basis van de nieuwe core verschijnen. De kaarten zouden adviesprijzen van respectievelijk 650 en minimaal 450 dollar meekrijgen.

nVidia logo (75 pix) De interessantste informatie is dat de unified shaders waar de chip uiteindelijk toch mee zou zijn uitgerust, flink efficiënter zijn dan de G71, het huidige topmodel. De prestaties van de pixel shaders van die voorganger zouden met een factor twee overtroffen worden, terwijl de G80 zelfs twaalfmaal zo goed zou presteren als de vertex shaders van kaarten als de 7900 GTX. Xbit Labs rekent voor dat die cijfers met elkaar in tegenspraak zijn: twaalfmaal beter presteren dan de acht vertex shaders van de G71 duidt hetzij op 96 pipelines op een vergelijkbare kloksnelheid, hetzij op 48 stuks op de dubbele snelheid van rond de 1300MHz. Een tweemaal betere prestatie van de pixel shaders betekent echter eerder dat de G80 beschikt over 48 unified shaders op 650MHz. De core zou kloksnelheden tot 1,5GHz aankunnen, dus lijkt het aantal van 48 shaders wel correct, maar waaruit de prestaties ervan zijn afgeleid blijft voorlopig in nevelen gehuld.

De volledige lijst van VR-Zone:

  • Unified Shader Architecture;
  • Support FP16 HDR+MSAA;
  • Support GDDR4 memories;
  • Close to 700M transistors (G71 - 278M / G70 - 302M);
  • New AA mode: VCAA;
  • Core clock scalable up to 1.5GHz;
  • Shader peformance: 2x Pixel/12x Vertex over G71;
  • 8 TCPs & 128 stream processors;
  • Much more efficient than traditional architecture;
  • 384-bit memory interface (256-bit+128-bit);
  • 768MB memory size (512MB+256MB)
Moderatie-faq Wijzig weergave

Reacties (78)

Als dit zou kloppen zou i nog wel eens 50% sneller moeten zijn dan de R600. Maar 1.5 Ghz Core speed ?? kan dus niet zo maar he. Dan gebruik je niet 175 watt maar eerder 275 watt. Vooral met 700 Miljoen transistors en 768 MB ram het door de 384 Bit bus uit 50% meer chips bestaat. En niet te vergeten de extra grote memory controller om al dat geheugen aan te sturen.

Ik denk dat deze geruchten met een grote korrel zout genomen moeten worden.

En vergeet ook niet. DAt hij 2x sneller kan zijn !!.Dus dat betekend als je alle ALu's gebruikt om Pixels te berekenen heb je 2x de snelheid. Echter heb je in games ook vertex bewerkingen dus je zult nooit alle ALu's kunnen gebruiken voor pixel bewerkingen. En andersom ook niet.

Maar Unified heeft wel heel veel voordelen. Want alsje eens keer bijna geen vertex bewerkingen hebt kun je die alu's mooi bijschakelen voor pixel bewerkingen. En andersom. Waardoor je gemiddelde FPS een stuk beter zal zijn dan een kaart met dedicated shaders.
even de vraag met welk procedé er gebakseld word....
want ook daarmee verlaag je natuurlijk wel een deel van je, honger naar watjes.

edit:
en idd, is het altijd leuk als je in plaats van 30 / 50 naar 30 / 70 kunt schakelen als 1 van bijde taken minder nodig is, maar dan rest de vraag, hoeveel tikken heb je nodig om te schakelen en hoe hou je die threshold(?)

bijv in geval dat er 49 / 51 en 2sec later 53 / 47 nodig is...
0.08u is nu het beste wat er is voor vga kaarten dus dat zal het wel worden...
Je bedoelt met dat laatste: op momenten dat je framerate toch al goed was kan ie nog beter worden? Dat doet het hooguit leuk in benchmarks.
Nou nee. Denk aan je Min fps. Dan is het vaak zo dat de vga kaart het te zwaar heeft met iets. Dat kunnen vertex of pixel bewerkingen zijn.

Dus als je een kaart zou hebben met 24 Pixel en 8 Vertex of een kaart met 32 Unified. Zou een Unified veel sneller kunnen zijn en een hogere min FPS hebben:

Stel: Er zijn veel pixel bewerkingen en maar heel weinig vertex. Je FPS is dan 30. Maar op de unified worden er nog maar 2 shaders gebruikt voor vertex. En 30 voor Pixels en is de FPS 35. Dat is toch wel een groot verschil.
Helemaal mee eens. Minimum fps is een zwaar onderschat fenomeen, ook in benchmarks. Dit is waarom een zware kaart nog steeds 'aantrekkelijk' is om te kopen. 200fps of 300fps maakt inderdaad niets uit in een game, maar je wil ten alle tijde je minimum framerate op orde houden en dus is meer power toch beter.
Uiteraard is daar ook de CPU belangrijk in, maar jouw voorbeeld komt goed overeen met wat er nogal eens gebeurt in een game: er wordt even teveel gevraagd van één specifieke functie en daar is even de kracht niet voor (copyright G.J :+). Het dynamisch kunnen aanpassen van je execution units (in dit geval de shaders) is dan ook erg prettig.
Die speculaties over het stroomverbuik blijven me verbazen: Intel bakt cpu's met 300 tot 400 M transistors op 1,5x~2x kloksnelheid met de helft van het hier gespeculeerde verbruik.

Wie zegt dat nVidia dat niet voor elkaar zou kunnen krijgen?
Dus concluderen dat de hier gegeven kloksnelheid, het aantal transistors en een gespeculeert stroomverbruik samen niet zouden kloppen en dat dan dus dit nieuwsbericht incorrect is, lijkt mij een nogal kromme redenatie.

Het kan waarschijnlijk heel goed en ook nog met veel minder dan 175 watt aan verbruik.
intel en AMD besteden vele jaren aan het ontwerpen van hun CPU's en brenger maar elke zo veel jaar (3 of meer) een echt nieuwe ontwerp uit.
gfx bedrijven brengen elk jaar een nieuwe core uit en elke 6 maanden en flinke refresh van die core.
ze hebben gewoon niet zo veel tijd om hun cores tot in de puntjes precies uit te werken en werken daarom vaak met computer programams die een deel van het ontwerp werk over nemen, helaas zijn die nog niet zo efficient als een mens zou zijn met voldoende tijd.

verder lopen ze ook wat achter kwa productie process op de CPU makers omdat ze niet hun eigen fabrieken hebben, en ze dus volledig afhankelijk zijn van wat de foundry ze kan bieden kwa productie processen.

en van de andere kant, kwa pure reken kracht lopen GPU's ver voor op CPU's
ze leveren zo'n 10 or meer keer de hoeveelheid gigaflops die een CPU doet, en dan is het niet helemaal verwonderlijk dat ze ook wat meer stroom verbruiken.
Alleen.. kun je daaruit niet afleiden - zoals je lijkt te suggereren - dat nVidia/ATi er niet langer dan een jaar over doen om een core te ontwikkelen. Intel heeft in de 3 jaar dat ze de Conroe ontwikkelden ook nog heel wat 'nieuwe' processoren uitgebracht, zowel refreshes van architecturen als "stomweg" op de markt brengen van hoger geclockte cores.
simpel: een single core cpu heeft 2 pipelines
een moderne gpu heeft 24 tot 32 pipelines (en deze nog meer)
Kan deze nu eindelijk een ronde cirkel en bol tekenen?

Ik herinner me van jaren geleden de term "nurbs" en dat we daarmee dus echte cirkels zouden krijgen.

Tot op heden heb ik nog geen echte cirkels gezien, enkel meervoudige polygonen/lijnen om een veelhoek te creeren.
uiteindelijk is het voor de rendering sneller om een shadingfilter over een polygonen object te plaatsen dan een nurb model te renderen (en te interpoleren). Hierdoor worden er nog altijd polygonen gebruikt in games. Uiteindelijke verschil zul je als gamer (bijna) niet opmerken :)
Vrij logisch aangezien nurbs 3d vectoren/splines zijn. Elke keer als het beweegt moeten de ronding opnieuw berekend worden om de curve te bepalen.
Ja daar had ATI TrueShape ofzoiets voor, maar die hebben ze gekilld na de 8500 serie :(

Maakte alles wat hoekig was volledig rond en onder andere UT2K3/UT2K4 ondersteunde en Rainbow Six : Raven Shield ook dacht ik.

Ik vraag me ook af of nVidia eindelijk HDR+AA kan met die nieuwe kaarten die straks uitkomen ?!
volgens mij heette dat trueform en ik weet bijna zeker dat het in de 9XXX serie ook nog er in zat. Zag er met counterstrike wel grappig/raar uit. Deze ondersteunde het ook niet maar je kon wel via het ati menu het aanzetten. Werd de demper van je pistool bol :)
dat heet inderdaad true form en zat al in mijn Radeon 9700 :)
in de radeon 8500 was het hardwarematig, in de 9xxx serie is het softwarematig geworden.
In UT2004 kon je dat aanzetten ja, vondt het niet de moeite waard. Want uiteindelijk had je toch weinig tijd om op details te letten ( zeker in een snelle shooter ) kijk als het iets als een RPG was
Dat is zoals CR35 al aangaf TrueForm, maar dat maakt nog steeds niets echt rond.
Deze techniek splitst bestaande polygonen op in een x aantal kleinere, met een vernieuwde kromming gebaseerd op de geinterpoleerde normalen van de originele vertices!
En dit binnen de GPU zelf, dus geen extra memory transfer, en transparant voor de ontwikkelaar.
Dus nog steeds triangles alleen instelbaar kleiner.
Niets geen bijzondere render techniek.
Alleen maar een vernieuwde vorm van tesselation.
Dan ben je slecht geinformeerd. Nurbs zijn splines, oftewel krommen. Daarmee kun je kromme oppervlakken mee moduleren, maar dat betekent niet dat de hardware die kan renderen - die werken namelijk nog altijd gewoon met driehoekjes.

Hoe meer driehoekjes je in een bol stopt, hoe ronder hij lijkt. Maar je ziet deze artifacts vooral langs de randen van een object tegen de achtergrond, aangezien met per-pixel belichting al lang wordt gedaan alsof de driehoekjes zelf rond zijn.
het is eigenlijk 3x128bit=384bit of ook wel 3x256MB=768MB of 3X512MB=1536.

*edit* 768 naar 768MB
Lezen, het is 265+128. ;)
het heeft niets met lezen te maken, het is gewoon dat 2x256+128 niet volgens computer logica is ;)
In nederland zal dit kaartje wel in december of januari uitkomen en de prijs zal ook vele malen hoger liggen dan de amerikaanse prijs. (Want de regel dat een euro meer waard is dan de dollar gaat hier in nederland niet op bij de hardware leveranciers)

Ik gok op een prijsje van ~600¤ voor de GT en 750¤ voor de GTX.
dat heet 19% BTW, die bij de amerikaanse prijzen niet meegerekend zijn.
In NL komt die 19% erbij, hier in de US (in LA waar ik zit) is het 6%.
en die 6% word zelfs nooit in de prijs vermeld.
Dat klopt: in de bron wordt het wel goed vermeldt:

The information says the G80 will launch in November in the form of GeForce 8800 GTX and GeForce 8800 GT models priced at $649 and $449-499, respectively.
Lekker kaartje, alleen ja....

Ik wacht wel totdat het ding ietsie goedkoper wordt

(zegt de man die een splinternieuwe 6800GT had gekocht toen die net uit was :P )

Maar ja... Spellen worden ook groter en beter nu er ook HD-DVD uitkomt en BD....
Meer opslag = meer data = meer berekeningen = hogere hardware requirement = betere hardware....

= meer centjes uitgeven...
= nog blutter dan ik al ben.

:Y)
twaalf keer sneller :|

ik kan me niet voorstellen dat de 7 reeks bij lancering meer dan 2x sneller was dan zijn voorganger...en de 6 reeks voor hem...

dis wel een enorme sprong dan :X en als het aantal transistoren verdubbelt...so will the power usage...en dan worden die spookbeelden van Ati's opvolgers die 250 watt zou verstoken wel erg realistisch :X
Wanneer zou je deze kaart ongeveer kunnen verwachten? Want ik wilde nu eigenlijk een 1900XT gaan kopen voor mijn nieuwe pc.. Ik vind het niet zo erg om eerst nog een paar maanden met een PCI kaartje te werken, maar zou het zin hebben om daar zo lang op te wachten? Ik bedoel... Volgens dit bericht zou deze videokaart vele malen beter zijn dan de huidige kaarten...
Let wel dat deze informatie,zoals aangegeven in de tekst ,pure speculatie is,en gebasseerd is op wat technische info die is uitgelekt,speculeren mag dus ,wat velen hier al doen, dus ik denk ook dat er gebruik wordt gemaakt van multi thread processing wat al verklaard waarom de nieuwe 8800 veel beter gaat presteren dan de huidige 7900 serie,en die warmte ontwikkeling gaat reuze meevallen daardoor :7
Ik wacht op de dag dat ik mijn ATi 9800 kan vervangen door de nVidia 9800 :9

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True