Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 56 reacties
Bron: The Inquirer

The Inquirer beweert dat nVidia al sinds de GeForce2 een kleine hoeveelheid cache op haar chips meebakt. Een aantal maanden geleden testte een anonieme developer met een GeForce2 hoe snel textures van het videogeheugen naar de chip werden vervoerd, en concludeerde dat er cache aanwezig moest zijn, omdat dit soms veel sneller ging dan theoretisch mogelijk was. nVidia ontkende dit, en beweerde dat er wel wat dingen tijdelijk werden opgeslagen, maar dat dit in totaal niet meer dan 16KB kon zijn, en zeker niet in de vorm van een cache. Verder geëxperimenteer wees echter uit dat er wel degelijk een klein stuk geheugen op de chip zelf moeten zitten, zo rond de 128KB. Sinds de GeForce3 moeten er zelfs twee caches aanwezig zijn:

Nvidia changed its marchitecture in chip in Geforce 3 and 4 that made the earlier test unusable. The engineers suggested, however, that Geforce 3 and 4 were using at least two cache memories inside the GF3s and GF4s rather than just one used in the GF2.

nVidia GeForce2 chip (groot)

Met dank aan RawPeanut voor de tip.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (56)

Heeft er eigenlijk iemand (inclusied degene die dit nieuwsbericht geschreven heeft) de/het betreffende artikel(en) gelezen op "the inquirer" ?
Er wordt daar immers tussen de regels HEEL DUIDELIJK gesteld dat de manier waarop dit gerucht tot stand gekomen is ZEEEEEEEEER twijfelachtig is. De benchmarks gebruikt om aan te tonen dat de GPU's cache zouden hebben werken gewoon niet goed. De technieken die nVidia gebruikt om geheugenbewerkingen te optimaliseren worden bij deze benchmarks NIET in rekening gebracht.
Ik stel voor dat iedereen eens de artikels in kwestie gaat lezen, dan zul je misschien de CORRECTE interpratie krijgen en niet het gezwans dat hier staat.
zo duidelijk is dat niet maar the inquirer lijkt me niet erg betrouwbaar tenminste de naam niet er is ook een krant dat meer een soort roddelblad is dacht ik met die naam

maar er zit altijd cach/buffer op zulke complexe systemen anders krijg je problemen
(zelfs je oude compoorten hebben een buffer ook om problemen tegen te gaan zoals dat de cpu niet altijd een bepaalde poort kan inlezen de buffer zorgt ervoor dat de data in iedergeval goed word opgevangen er moet dan wel binnen een bepaalde tijd data uitworden gelezen en worden gewist)

ook in gpu's hebben onderdelen niet altijd op precies de goede tijd een berekening klaar

de grote van buffers kun je wel testen door bv elke keer te testen met grote stukken data (dus begin met 1 kb dan 2 dan steeds meer )
of bepaalde complexe berekeningen steeds complexer maken todat het opeens een stuk langzamer gaat (de grote van de buffer/cache is dan bereikt dan nog omerekenen tot je de buffer grote weet

dit is dus theoretisch en ik weet niet of het wel mogelijk is de kaarten zo aan te roepen om buffers te kunnen testen op deze manier
Ooit van engelse humor gehoort? De inquirer is in ieder geval een stuk betrouwbaarder dan zdnut of CNET. Mike Magee (oprichter van The Inq. en mede oprichter van The Register) staat bekend om zijn goede contacten in de industrie. Tot grote frustratie van veel grote bedrijven weet hij vaak ver voor de rest wat er aan de hand is. Vooral HP heeft vaak de noodplannen uit de kast moeten trekken omdat Magee weer eens erachter gekomen was wat ze van plan waren.

Dan over de caches. Het gaat erom dat als met een bv. een 64KB texture upload via AGP het DDR ram totaal niet wordt aangesproken. nVidia weigert dat toe te geven..
Waarom was dat niet eerder gedaan?
Cashe geheugen maakt toch erg veel uit???
Ik denk dat dit gewoon een misverstand in terminologie is, dit persoon denkt een cache te hebben gevonden, NVidia ontkent dit omdat het waarschijnlijk om een buffer gaat. Ik weet bijna wel zeker dat die chip intern een zut geheugen heeft, iig voor frame en texture een buffer, voor vertices een cache.

Het verschil tussen een cache en een buffer ligt aan het feit dat een cache meerdere stukken data bijhoudt, een buffer niet. Caches zijn ingewikkelder in soft & hardware.

De GeForce (2 meen ik voor 't eerst?) heeft een vertex cache. Hierin worden vertices die al getransformeerd en belicht zijn opgeslagen. Deze cache is 16 (effectief 12) op een GF2 en steeds groter en groter op de GF3 en GF4, ik geloof dat ze nu rond de 24 zitten.

De meeste videokaarten hebben een texture en frame buffer. Meestal lezen ze een bepaalde grootte (1, 2, 4K of zoiets) van een texture, frame of z-buffer tegelijkertijd. Intern tekenen ze dan vanuit dat snelle texture memory naar dat snelle Z en framebuffer memory. Dit scheelt vaak een hoop omdat pixels in de framebuffer, texels in de texture-buffer meerdere keren worden gebruikt bij het tekenen (bijvoorbeeld als je bilineair aan 't filteren bent).

Een PS2 heeft bijvoorbeeld een 8K frame & z buffer die op 1K / cycle (48G / sec) wordt gevuld. Zolang je kleine polygonen tekent in die buffer gaat alles razendsnel. Ik weet dat de N64 dit ook had, en ik heb eens met een engineer van 3Dfx 't over de S3TC support in hun (toen ver toekomstige) kaarten gehad en die legde toen uit hoe dat gedecompressed werd naar hun lokale texture buffer. Dus da's al vet lang geleden dat 3Dfx al zo'n buffer had.

Ik denk dat er niks nieuws onder de zon is, gewoon een stukkie hw wat iedereen heeft.

[ P.S. kan artikel op theinquirer nu ff niet lezen ter referentie, ik heb iets van 90% losse packets op m'n Chello lijntje, gelukkig doet Tweakers het nog! ]
Verschil tussen een buffer en een cache is dat een buffer leidend (dwz altijd de juiste informatie bevat) is en in een cache zit meestal een gespeculeerde (verzameling van) waardes. Cache is ervoor gemaakt dat het aan de ene kant latencies verlaagt en aan de andere kant doorvoorsnelheden vehoogt doormiddel van 'slimme/voorspellende' algoritmes terwijl een buffer als doel heeft een waarde langer vast te houden om verlies van die waarde tegen te gaan.

Het is allebei simpelweg geheugen en beide zullen niet sneller werken dan mogelijk zonder extra logica. Deze extra (lees: versnellende) logica is onderdeel van een cache en niet van een buffer.

edit:

no flame intended richting persoon hierboven hoor .. just my 2 cents
Niet als flame bedoeld, maar...

Een buffer kan onafhankelijk van het proces vollopen. Dat wil zeggen dat deze dus ook kan vollopen terwijl of nog voordat de data wordt gebruikt.

Het voorspellende vermogen waar je het over hebt komt aan de orde met het op meerdere plaatsen aanspreken van een groter geheugen.

Aangezien je volgens mij niet kan voorspellen wanneer een driver zijn data naar de AGP bus stuurt, trek ik daaruit de conclusie dat die zgn 'voorspelling' zou moeten zitten in het -tijdens het renderen van een frame- halen van data uit de 'buffer' - het video(kaart)geheugen.

Ik kan me echter herinneren dat de GF2gts chipset op dezelfde freq. werkte als het geheugen (hang me er niet aan op). Dat zou weer betekenen dat de complexe logica van een cache - die nodig is bij branch prediction en ongedefinieerd springen door grote hoeveelheden data - niet nodig is in dit verhaal, en dat een simpele buffer voldoet (er is immers al bekend wat gaat worden geladen).

Makes you wonder - zit er wel een cache op de chip, of is het een simpele paralelle (en veel goedkopere) buffer, zoals ik vermoed.
In tests gedaan door iemand werden er simpelweg wat textures geladen..tot de verassing van die persoon werdt het he geheugen op de videakaart totaal niet aangesproken.. Ok een cache, niks mis mee toch? nVidia blijft het echter ontkennen.. ze hebben liever dat wij denken dat hun weet-ik-wel-niet-hoeveel-miljoen transistors allemaal brilliante logica bevatten ipv een cache.
Om eerlijk te zijn snap ik het hele artikel niet. (Probeer het ff simpel uit te leggen, dus aub niet zeuren over kleine incorrectheden, want ik weet dat ze er in zitten)

1. Overal staat dat in NVidia chips pipelines zitten - zelfs op de doos
2. Als je een pipeline goed wilt vullen moet dit gebeuren op de snelheid van de processor
3. Combineer 1 en 2, denk aan wat problemen die ontstaan bij "vooruitdenken" van rekenwerk -> Voila, je hebt een cache nodig.
maar wat willen ze er mee zegge dan dat die sneller is
:Z
het ontgaat mij totaal wat hiervan de betekenis is......wat is het nut van de wetenschap dat er cache bijzit?
3d engine bouwers kunnen er mischien handig gebruik van maken als alle 3d chip bakkers dat doen.
Zoal shet hier beschreven is lijkt het wel of nvidia een misdaad heeft begaan ?

Maakt het nou uit als ze dat doen slim van ze juist zo is de toevoer nog sneller
Ben het met je eens dat het artikel weinig schijn heeft van objectiviteit echter de grote fout die NVidia gemaakt heeft is ontkennen dat er cache aanwezig is. Voor de rest boeite het me geen moer .. Alleen feit blijft dat NVidia gelogen heeft.
De Graphics Card industrie is er altijd een geweest van "smoke and mirrors" en trucjes.
Ze schotelen je zogenaamde "raw" perfomance voor en theorethische snelheden gebaseerd op vet lijkende specs.
Het gebruik van trucjes en omweggetjes kunnen het performancebeeld enigszins vertroebelen en de ware kracht van een kaart verdoezelen.
Daarom is nVdia niet zo blij als dit soort dingen openbaar gemaakt worden.

Het geeft hardware reviewers weer eens iets om zich op te storten en nader te onderzoeken.
Ook zou je met behulp van een eventuele cache geheugen benchmark software kunnen "tricken".
Niet dat ik zeg dat dit gebeurt, maar het lijkt wel of men het verleden v/d graphics industrie een beetje vergeten is.
Deze industrie heeft alles behalve "schone handen".

Hardware reviewers bijv. krijgen speciale kaarten toegestuurd die extra goed gebakken zijn, dit komt maar 1 op de 100000x voor.
Met extra goede weerstandjes en onderdeeltjes.
De benchmarks lijken dan ineens heel vet, maar wat jij werkelijk in de winkel koopt is de rest van die 99999 minder goed gebakken kaartjes, met andere merken weerstandjes en onderdeeltjes.
Soms scheelt dit wel 70% in performance.
Dit is al een paar keer uitgebreid besproken op enkele hardware review sites.

Als een hardware manufacturer liegt over of zijn chipset nou wel of geen cache heeft is al een slecht teken.
Wie interesseert dat nou?
Niemand indd, waarom zouden ze er dan over liegen?

Trek je eigen conclusies maar.
70% is heel erg slecht aan verschil ik haal zelf betere benchmark hier dan sommige bench marks (vaak worden bij benchmarks geluid enzo uitgezet dit leverd wel een beetje extra cpu tijd maar nie echt veel)

ze leveren de benchmarkers vaak de eerste versies ze hoeven niet beter te zijn (vaak zie je ook dat iets niet goed werkt en bij winkel versies wel

ik vind 70% wel heel erg ik denk dat dit niet klopt
bij mijn hardware tenminste niet
Misschien gaat het wel om een gepatenteerd stukje technologie, waar nVidia geen rechten voor bezit?
Dan zou ik het ook niet toegeven......
Hehe .. ze hebben 3dfx al opgekocht :) dus denk dat ze nog maar weinig rechtzaken hebben lopen op...
Ik zie niet in waarom dit geheim zou moeten worden gehouden als het echt om cache gaat, waarom zouden ze dit willen. Als het nou een geniale nieuwe vinding zou zijn. Maar de concurentie weet ook wel dat een CPU cache bevat en zouden dit dus ook kunnen proberen. Ik denk eerder dat het meer zo zit zoals TheRademaker hierboven zegt.
Ik denk dat nVidia dit niet leuk zal vinden omdat ATI dit nu wel zal gaan uitproberen :P
Ik denk niet dat het om een briljante vinding gaat, maar meer om iets vaags; een trucje.
Nee, zo wereldschokkend vind ik dit ook niet... ik heb altijd standaard aangenomen dat dit in moderne grafische kaarten aanwezig was.
Ik vind het eerder nieuws dat blijkbaar andere fabrikanten (ATi, SiS, S3 en Matrox b.v.) geen gebruik van cache maken in hun grafische chips.

Het lijkt me toch logisch met GPU's die uit meer transistoren bestaan dan een Athlon / P4 en een dikke geheugeninterface hebben cache gebruiken... zelfs bejaarde chipmodellen uit he pré-windows tijdperk zijn met cahe uitgevoerd....

Vreemd allemaal :?
Ik denk dat iedereen die wel eens naar een chip-ontwerp heeft gekeken wel eens een cache-'blokje' is tegen gekomen :Y)

Het grootste probleem bij een snelle chip is de data-van buitenaf op tijd binnen hebben, dit is het makkelijkste te doen door een hoge busbreedte te nemen (128/256 bit) of door een hoge kloksnelheid te gebruiken (en natuurlijk kan je beide combineren).

Nu moet je je voorstellen dat je producent van je chip bent en je wil een zo snel mogelijk chip maken die best duur mag zijn, je verkoopt hem toch wel.
Je hebt je chip maar komt er achter dat het geheugen wat je kan kopen (voor beetje gunstige prijzen) niet echt is wat je wil qua snelheid, je hebt namelijk 'een van de snelste chips' ;). Maar ja, gedwongen door prijs, want je wil je chip natuurlijk wel graag kwijt, moet je wel. 'Ons' geheugen is dus wat minder snel, vanwege een anders veel en veel te hoge verkoopprijs.
Nou blijkt dus dat je met behulp van een kleiner sneller stukje geheugen ertussen wat zeg maar als doorgeef luik speelt je een snelheids-winst kan boeken. Dir 'doorgeef-luikje' heeft een paar simpele* truckjes tot zijn beschikking welke hem in staat stellen om data en code op te halen nog voordat de processor er om vraagt. Op deze manier is de aanvraag dus gedaan en hoeft de processor minder lang te wachten op de gegevens.

(* De truckjes zijn simpel ;) en soms inefficient echter de uitvoering in hardware is behoorlijk complex en daarvoor toch best petje af naar AMD & Intel)

* 786562 Atmosphere
Ati weet zoiets al lang. Die nemen een CPU van de concurrent en ontleden hem helemaal. Dit kan o.a. met rontgenapparatuur.
Als ze dat al niet gedaan hebben. ;)
:P begrijp niet waarom ze dat niet in hun reclames vermeld hebben dan, staat toch vet juist, 2x 128k cache oid?

zeker als de anderen dat (nog) niet hebben lijkt het me juist een mooi marketing item, ookal haalt het geen donder uit voor de performance...
Klopt..
Maar het is nog handiger als je stiekum een cache gebruikt en de concurrentie weet dat niet eens. Met een beetje geluk gebruikt de concurrentie dan geen cache en daardoor houdt Nvidia een mooi performance voordeel...
Het eerste wat een HW bedrijf doet als ze zien dat de concurent een nieuw product in de winkels heeft is iemand zo'n kaart laten kopen en 'm helemaal slopen. Dwz chip uit z'n doosje etsen en onder de microscoop schuiven.
Nou is cache redelijk herkenbaar aan z'n vorm (geheugen, SRAM, 6 transistor cel ) en z'n aansluitingen (dikke pijpen naar geheugen, GPU core) dus ATi weet zeker hoeveel cache er op elke GeForce zit.
Lol! :+
Wat vaag dat dat trouwens nog niet eerder bekend wordt, ik bedoel: de Geforce2! Die is toch niet nieuw? :?
Maar het klinkt op zich wel cool... 8-)
Ik dacht dat het ook al langer werdt toegepast in GPU's aangezien het de performance zeer veel goeds doet. En het allemaal wat soepeltjes laat draaien.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True