Nvidia bracht 25 jaar geleden de GeForce 256 uit, de 'eerste gpu' - update

Nvidia viert vandaag de 25e verjaardag van de GeForce 256. Deze videokaart werd op 11 oktober 1999 uitgebracht als de 'eerste gpu'. Deze term verwees naar de enkele chip die verschillende 3d-gerelateerde taken voor zijn rekening kon nemen.

Nvidia zette de GeForce 256 in de markt als 'eerste gpu' die minstens 10 miljoen polygonen per seconde kon verwerken. Het ging ook om de eerste enkele 3d-chip die hardwarematige ondersteuning bood voor 'transform and lighting', een type berekening dat voorheen werd uitgevoerd door de cpu. De '256' verwijst naar de 256-bit QuadPipe Rendering Engine, die bestaat uit vier 64bit-pixelpijplijnen.

De GeForce 256 beschikte over de NV10-chip, die op TSMC's 220nm-procedé werd vervaardigd. De NV10 had 17 miljoen transistors onder de kap en werd initieel gepaard met SDR-geheugen. Op 13 december 1999 kwam een snellere DDR-versie uit, die de bandbreedte verhoogde van 2,65GB/s tot 4,8GB/s. Ter referentie: de RTX 4090, het huidige Nvidia-topmodel, bevat 76,3 miljard transistors en heeft een bandbreedte van 1008GB/s.

Update, 18.32 uur: Een kanttekening: de GeForce 256 is volgens de marketing van Nvidia de eerste gpu, al bestonden er daarvoor al soortgelijke producten van fabrikanten zoals 3dfx. Bovenaan dit artikel wordt de definitie van deze term uitgelegd.

Door Idriz Velghe

Redacteur

11-10-2024 • 17:02

173

Reacties (173)

173
171
93
8
0
68
Wijzig sortering
De voodoo banshee is van 1998 dus ik denk dat er niets klopt van dat nvidia eerst was. De banshee deed net zo goed 2d en 3d en was zeker een gpu te noemen. En de competitie op dat moment van nvidia was de TNT

[Reactie gewijzigd door bzuidgeest op 11 oktober 2024 17:20]

Ligt een beetje aan je definitie van 'GPU'. Eerdere 3d accelerators konden niet veel meer dan textures versneld projecteren. Als dat je definitie is telt de "Super Scaler" arcade hardware van Sega uit 1985 ook al mee.
De Geforce doet ook de geometrie transformaties en belichting in hardware waardoor veel meer complexiteit in scenes mogelijk werd en je kan spreken van een meer 'allround' graphics processor.
Ik beperk het hier even tot desktop hardware. Arcades is een heel ander verhaal. Consoles mogelijk ook.

De 256 was voor de pc dus dat is de vergelijking die ik maak.

Wat definitie betreft, ik denk niet dat het an nvidia is om die te bepalen. De banshee deed misschien heb t&l maar dan ben je wel heel specifiek aan het kijken. Er waren vast dingen die de banshee weer deed en de 256 niet.

Voor mij is de definitie voor gpu in deze context geïntegreerde 2d/3d oplossing. Dat is anders dan de losse voodoo(2) addon kaarten waar je een andere 2d kaart naast moest hebben.
Misschien waren er nog wel anderen eerst dan, maar in ieder geval niet de gf256
Mee eens. "de eerste GPU" is marketinggeneuzel van nVidia. De definite van nVidia voor GPU is: "a single-chip processor with integrated transform, lighting, triangle setup/clipping, and rendering engines that is capable of processing a minimum of 10 million polygons per second".
Als je van die definitie uitgaat is het inderdaad de eerste GPU. Verder waren er al legio grafische kaarten met gecombineerde 2d/3d capaciteit: Riva128, PowerVR, Matrox G100/200, Voodoo Rush, Ati Rage (pro) etc. etc. vanaf 1996 was het een wapenwedloop van jewelste.

Los van nVidias marketing, was het gewoon de zoveelste grafische kaart. Weer een stapje verder dan de voorgangers (wat destijds in veel grotere sprongen ging dan nu).
De banshee was een single chip 2d/3d chip met voodoo2 technologie, maar dan maar één texture mapping unit (vs de 2 op de voodoo2) en wat meer geheugen (16mb vs 12 of 8 op de voodoo2). Die ondersteunde zeker geen hardware T&L. Enige voordeel van de banshee was glide ondersteuning voor de paar games die daar toen nog wat beter/mooier op draaiden. De voodoo3 was ook al uit en de Geforce256 SDR was ruim 1,5 tot 2x zo snel dan die, zeker in games die hardware T&L ondersteunden.
Nvidia's gebruik van de term "GPU" was inderdaad voornamelijk een marketing-ding, sterk afhankelijk van de definitie. Overigens ben ik het niet eens dat het zou moeten betekenen "geïntegreerde 2D/3D oplossing" want die waren zoals anderen al opmerkten er al veel eerder (ook van Nvidia zelf) en bovendien sluit het niet echt aan op het "processing unit"-gedeelte van de GPU term.

Naar mijn mening zou "GPU" moeten betekenen dat er een aspect van programmeerbaarheid aan zit, en onder die definitie was de GeForce 256 nog geen echte GPU. Dat was de GeForce 3 pas, die voor het eerst programmeerbare vertex en pixel shaders had. De GeForce 256 was nog volledig een fixed function pipeline, die configureerbaar was via OpenGL/Direct3D maar niet programmeerbaar.
Gpu dtaat voor Graphics processing unit, iets dedicated aan het verwerken van grafische beelden. Dan voldoet het aan die term toch?

Maar de vraag ‘wat is een gpu’ (of het antwoord erop) is natuurlijk mee geëvolueerd net als de kaarten zelf, toen der tijd was het gewoon correct
Het gaat mij meer om het gebruik van de term "GPU" in relatie met andere processing units als CPU en FPU. Een "processing unit" is traditioneel gezien altijd een unit voor het verwerken van programmacode geweest, of dat nou general purpose code of meer domain-specific code is. Voor chips met hard ingebakken logica hebben we andere termen: ASIC, PLA, CPLD, FPGA, afhankelijk van de toepassing en hoe de fixed logica precies ingebakken wordt.

Overigens als de enige definitie van GPU "dedicated aan het verwerken van grafische beelden" was, dan waren de eerste 3D accelerators als de 3dfx Voodoo en S3 Virge ook al GPUs. Maar iedereen is het erover eens dat de chips op die kaarten ASICs waren, chips die een aantal specifieke functies voor graphics rendering in hardware implementeerden.

Uiteindelijk komt het er op neer dat de definitie van wat een GPU is niet sterk vastgelegd is, en dat Nvidia het integreren van hardware transform & lighting heeft gekozen als 'het' moment om hun chips tot GPUs te bombarderen. Of dat terecht was, daar verschillen de meningen over.

[Reactie gewijzigd door Devil N op 12 oktober 2024 17:08]

Nvidia Riva kan ik mij nog goed herinneren 1997!
Ik had idd een TNT 2 en best een Geforce 256 gewild als upgrade, maar voor mij was het toen weinig meer dan een iets snellere kaart, hoe mooi en onbereikbaar die ook lonkte. Hardware T&L, naja leuk, maar iirc deden ATI en 3dfx het even snel zonder. (Ook die kon ik niet zomaar kopen…)
Joh ik had midden 1998 een pc gebouwd met een voodoo2 12mb, pentium 2 300mhz en 64mb ram voor fl.3000,- inclusief scherm, speakers, muis en tobo, zou met inflatie nu bijna hetzelfde zijn in euro's.
Al mijn krantenwijk/vakkenvul-geld was toen op (was 16 jaar oud). Ik had echt geen budget om een jaar later een veel betere videokaart te kopen :P
Ik kon alleen maar dromen van een Geforce :9~
Ik had toen een TNT, en heb toen in Amerika op vakantie een Geforce 256 mee terug genomen. Was destijds bijne de helft van de prijs zoals die hier verkocht werd. Minder dan een jaar later vervangen door een Matrox Millenium G400 vanwege crappy beeldkwaliteit en dramatische detonator drivers (blue screen galore). Die G400 kon heel snel niet meer meekomen met game performance, maar 2D beeldkwaliteit had toen bij mij hogere prioriteit.
Haha, gelukkig maar van die TNT 2 dan. :)
Wat definitie betreft, ik denk niet dat het an nvidia is om die te bepalen. De banshee deed misschien heb t&l maar dan ben je wel heel specifiek aan het kijken. Er waren vast dingen die de banshee weer deed en de 256 niet.

Voor mij is de definitie voor gpu in deze context geïntegreerde 2d/3d oplossing.
Het is toch ook niet aan jou om die te bepalen? De tijdsgeest toen was inderdaad dat het de eerste GPU werd genoemd, net omwille van de hardware T&L. Het was echt niet alleen Nvidia die dat riepen.
Ik zou overigens ook niet direct weten wat de Banshee deed dat de GeForce niet deed. De GeForce sloeg in als een bom. Als de TNT2 het 3dfx al moeilijk maakte, dan was de GeForce 1 het begin van het einde voor 3dfx.
De term gpu werd voor het eerst gebruikt door Sony in 1994. Nvidia was niet de eerste die daar deed.

Een dat nvidia niet de definitie bepaald will niet zeggen dat ik ben bepaal. Ik heb natuurlijk mijn mening daarover. Maar ik denk dat er duidelijk meer dan een mening is. Ik denk dat de consument of de geschiedenis bepaald wat een gpu wel of niet is.
De term gpu werd voor het eerst gebruikt door Sony in 1994. Nvidia was niet de eerste die daar deed.
Mijn excuses - ik bedoelde "voor de desktop". Niemand gebruikte de term "GPU" wanneer het over de Banshee ging, of eender welke eerdere grafische kaart/3D-kaart voor de desktop. De definitie voor GPU was toen helemaal niet "geintegreerde 2D/3D kaart".

Wat betekent dat de kaart toen effectief wel werd uitgebracht als de eerste GPU die wij als consumenten voor onze PC's konden kopen. En zelfs als de definitie van GPU nu 25 jaar later zou veranderd zijn, dan nog verandert dat niets aan het feit dat ze toen wel als eerste desktop GPU werd uitgebracht :)
Wat definitie betreft, ik denk niet dat het an nvidia is om die te bepalen. De banshee deed misschien heb t&l maar dan ben je wel heel specifiek aan het kijken. Er waren vast dingen die de banshee weer deed en de 256 niet.
De term GPU is destijds door nVidia zelf bedacht en ze hebben er destijds ook een definitie bij bedacht die weinig toevallig alleen de GeForce 256 includeerde. Ze kunnen bij nV bedenken wat ze willen, laatst hebben ze de "NPU" ook als nieuwe term bedacht.
Die term is niet door Nvidia bedacht. De term is bedacht door Sony in 1994 voor de PlayStation consoles. Volgens sommigen gebruikte ibm en zo hem nog eerder, maar daar heb ik even geen bewijs van.
Oh okee, interessant. Ik had destijds gelezen dan nV de term GPU zelf had bedacht.
Die consoles bevatten ook gewoon MIPS en SH4 variant, en die waren weer afgeleide van SGI supercomputers zoals de Onyx. Rond de eeuwwisseling gingen die mensen van SGI al snel allen richting Nvidia.
Als het gaat om ‘graphics processing’ in letterlijke zin zou ik denken dat het zelfs ook om 2d kan gaan. Het is een lose definitie discussie eigenlijk
Dit dus. 2D Graphics zijn ook graphics.

Dus iedere chip die hier grafisch werk, in welke vorm dan ook, uithanden neemt van de CPU is in feite een GPU.

Dat nVidia een grote stap maakte en een nieuwe generatie inluidde met de Hardware T&L functionaliteit staat buiten kijf. Maar ik ben blij te zien dat de redactie even door Nvidia’s poging tot geschiedvervalsing heenprikt.
Een 3DFX kaart stond bekend om hw accelerates bilineaire filtering van textures, dat was visueel gezien een hoogstandje in vergelijking met software rendering.
Er is geen enkele reden dat je die algoritmes niet in software kan draaien.
Dergelijke hardware was ook niet nieuw toen, maar die zat alleen in dure workstations van bv SiliconGraphics.
Enige wat 3dfx toevoegde was dat hun hardware betaalbaar was en het een orde sneller kon dan de consumenten cpu’s uit die tijd.
Inmiddels is de term GPU in gebruik als algemene term voor grafische microprocessor. Vóór de GeForce 256 werden de taken transform, clipping & lighting (T&L, TCL) echter door de CPU afgehandeld, op enkele peperdure professionele systemen na. De GeForce 256 was de eerste grafische processor die alle belangrijke rendering taken op zich nam en werd daarom op de markt gezet als de werelds eerste GPU. Waarbij de CPU zich dus met algemeen rekenwerk bezig kon houden en de grafische berekeningen aan de GPU kon overlaten. Later heeft Creative nog geprobeerd om haar geavanceerde audioprocessors als APU's (Audio Processing Units) op de markt te zetten. Waarbij het idee dan was dat alle audiogerelateerde berekeningen voor positioneel 3D geluid en effecten niet meer door de CPU maar de APU zouden worden afgehandeld. Deze term APU is echter nooit echt doorgebroken en tegenwoordig wordt de afkorting APU binnen de ICT meestal gebruikt voor een Accelerated Processing Unit.
En dat is allemaal irrelevant aan of de term gpu door Nvidia is verzonnen. Een de term gpu is niet door Nvidia verzonnen. Ik denk niet dat ik alle comments met die strekking hoef te herhalen.

Ik denk niet dat Nvidia het recht heeft om te beslissen wie er "eerst" was. Zeker niet door een arbitraire feature als grens te zetten.
Extra reactie, ik lees net dat de Sega Saturn en PlayStation console ook t&l in zijn gpu had. Niet bepaald een high end systeem zou ik zeggen ( ik neem dan aan dat je met high end iets van sgi bedoeld). En verschillende arcades hadden het ook. Allemaal voor Nvidia. Nvidia was de eerste die het in een video kaart stopten voor consumenten misschien, maar dat maakt ze geen uitvinders ervan. En ook niet echt de eerste die het aan de algemene consument beschikbaar stelden.
Ik dacht dat je gelijk had maar heb het even gegoogled, denk net niet gelijk, als de bronnen kloppen tenminste :+

banshee:

The Voodoo Banshee PCI 16 MB was a graphics card by 3dfx, launched on June 22nd, 1998. B


riva tnt:

The first graphics card that was based on the RIVA TNT chip was the Velocity 4400, released by STB Systems on June 15, 1998.
Ach, je kunt nog veel verder terug, zelfs als je alleen NVidia-chips als uitgangspunt neemt.

De NV1 bijvoorbeeld, de chip die op bijvoorbeeld de Diamond Edge 3D uit 1995 (!) zat. Dat was al een gecombineerde 2D/3D-chip waar een paar exclusieve games (Sega Saturn-ports) voor beschikbaar waren.

Maar ook de Riva128, de voorloper van de Riva TNT uit de bekende TNT-kaarten, was al een gecombineerde 2D/3D-pipeline processor.

En dat is alleen nog maar NVidia.

Rendition's Vérité V1000, de ATi RAGE (gebaseerd op de MACH64-chip met een nieuwe 3D-pipeline op dezelfde die) en de S3 3D ViRGE-chip die ook al bood wat we nu van een GPU verwachten, en de eerste Matrox Mystique-kaart stammen allemaal al uit 1996.

In 1997 kwam de VideoLogic PowerVR (later omgedoopt in Imagination PowerVR, en nog later NEC PowerVR). Die architectuur was tot nog niet zo lang geleden nog in gebruik als GPU in AppleTV, iPhone en iPad.

In 1998 kwam S3 met de Savage3D-chip, die al een stuk beter presteerde.

Dat was allemaal vóór de GeForce 256.

EDIT: typo's...

[Reactie gewijzigd door Heroic_Nonsense op 11 oktober 2024 21:32]

Juist ja, die 3D edge kan ik me nog herinneren uit de Edge magazine van die tijd (enige serieuze games magazine van toen die ook voor developers was). Dacht dus ook al dat die Nvidua GPU bij lange na niet de eerste was.
Aah die edge 3d .. weet nog dat mijn buurjongen een pc had met die kaart, pentium 133 met 16mb ram.
Kon virtua fighter spelen op zijn pc. Ik was zwaar jalours met mijn p100 en 8mb ram , niet vooruit te branden in windows 95 :P
Maar dat is nog steeds niet de genoemde GeForce 256 die is van 1999 en dus niet de eerste

[Reactie gewijzigd door bzuidgeest op 11 oktober 2024 17:36]

Dit is gewoon een advertentie "nieuwsbericht" over de merknaam 'Geforce' welke dus nog steeds door Nvidia gebruikt wordt.

Het bericht doet vermoeden dat Nvidia de Eerste 3D kaart heeft gemaakt, 3Dfx was inderdaad het populaire merk voor 3D videokaarten voordat Nvidia met de TNT chips doorbrak omdat het dus een veel beter 3D chip design was.

Vermoedelijk heeft produktiecapaciteit (naast 3d chip design) meer te maken met de dominante positie die Nvidia sinds de 'Geforce' merknaam verworven heeft.

En het is Nvidia zelf die vind dat dit een memorabele gebeurtenis is. Staat verder los van de technische ontwikkeling van 3D kaarten in consumenten computers.

Om een beter inzicht te krijgen in de opmars van 3D in consumenten computers moet je zoeken met de term '3D acceleration', want de eerste 3D kaarten voor consumenten waren aanvullende reken-kaarten voor videokaarten.

Linkje om het zoeken verder over te slaan https://www.techspot.com/article/650-history-of-the-gpu/
3Dfx was inderdaad het populaire merk voor 3D videokaarten voordat Nvidia met de TNT chips doorbrak
Bij veel games was het logo van 3Dfx het eerste dat je zag verschijnen bij het opstarten. Nostalgie :)
De RIVA 128 kwam uit in 1997 en had ook een enkele centrale chip voor 2D en 3D, dus nog een jaartje eerder. Zal ongetwijfeld niet de eerste (noemenswaardige) zijn. :+

[Reactie gewijzigd door The Zep Man op 11 oktober 2024 17:40]

Dat is een beter antwoord dan. Dat was ook een 2d 3d oplossing anders dan de addon kaarten daarvoor die geen 2d zelf konden doen.
De Matrox Mystique dateert zelfs van 1996 en had ook (weliswaar slecht presterende) hardwarematige 3D acceleratie: Wikipedia: Matrox Mystique
En vergeet niet de S3 Virge.
Jup. En de Matrox Mystique, ook uit 1996
Oh damn die naam geeft me meteen kriebels, ik denk dat wij die hadden, had je ook niet nog een Matrox Milennium ofzo? Weet wel dat m'n pa voor AutoCAD ook een zware had een SVGA scherm!
PaT Moderator Mobile @JDx13 oktober 2024 07:56
Waren die Matrox kaarten niet die kaarten waar je 2 schermen op aan kon sluiten? Dat was in die tijd wel serieus uniek. Maar qua game performance waren ze vrij ruk. Waren echt meer gericht op CAD applicaties inderdaad.
En de Rendition Vérité. De Diamond reeks aan videokaarten had een hele mix van leuke chips. nVidia had wel relatief snel de competitie uit het water geblazen.
En vergeet de PowerVR niet :Y)
S3 Virge, die herinner ik me nog wel, ik had de 'DX' versie en die zou nog beter moeten zijn dan de normale. In de realiteit zagen de graphics er minder goed uit en draaide spellen langzamer als je de 3D 'acceleratie' aan zette :+

Niet lang daarna overgestapt naar een 3DFX kaart, de 'Canopus Pure3D' die destijds een rib uit mijn lijf kostte maar daarmee begon het 3D tijdperk dan toch echt :Y)

Edit: potverdorie blijkbaar zijn die Pure3D kaarten tegenwoordig 'collectors items', had ik hem destijds maar niet bij het oud vuil gezet :'( ;)

[1] https://www.ebay.com/itm/314386225268

[Reactie gewijzigd door johnbetonschaar op 11 oktober 2024 18:25]

Ja klopt. Maar dat geldt voor heel veel spul van toen. Ik heb nu ook spijt dat ik mijn C64 en Amiga weg heb gedaan. Maar ja, toendertijd had ik dat geld nodig om die nieuwe computer te kunnen kopen. :)
ik heb de mijne nog in een Pentium 166 bak steken, maar de laatste keer dat ik ermee heb zitten prullen (wilde jaren terug een echte DOS based retro PC maken) kreeg ik geen video output dacht ik.
Ligt allemaal nog ergens op de zolder.
Als ik me goed herinner moest je bij die kaart de VGA van je andere video kaart doorlussen naar de 3DFX om beeld te krijgen in Windows etc toch? :P
in DOS ook, eender wat, die heeft inderdaad een 15 pin VGA in en out op de kaart zitten.
Klopt, maar die dingen noemden we indertijd ook wel een 3D deccelerator, omdat softwarerendering vaak sneller was. :+
Precies. En voor de banshee was er de voodoo graphics, met het doorluskabeltje. :) Die heb ik hier nog liggen.
Die tel ik niet mee omdat dat geen geïntegreerde 2d/3d oplossing was. Je had een extra kaart nodig voor 2d met de oudere voodoo's
Niet zozeer dat het geen 2d had. Maar een voodoo kon geen T&L transformaties, waardoor een deel van de rendering nog afhankelijk van de CPU was. Om dit reden wordt het eerder een 3d accelerator genoemd.

Overigens heeft Nvidia de term GPU bedacht en daarom bepalen ze min of meer wat het omhelst. Een term die ze geïntroduceerd hebben met het uitbrengen van de Geforce 256.
klopt ik herinner me nog heel goed. ook heel wat compabiliteit issues waren met games vroeger :)
Sony heeft die term bedacht in 1994 . Staat gewoon op Wikipedia met referenties
De term GPU komt al uit het tijdperk van IBM in de jaren 70. Nvidia was wel de eerste die een GPU uitbracht zoals we die nu kennen.

Uitdaging is dat GPU een vrij generieke term is. En dat het in het verleden voor verschillende dingen is gebruikt.

In IBM tijdperk als een processor/coprocessor voor het verwerken van de 2d beelden.

Sony als onderdeel van de Playstation voor het renderen van 2d en 3d beelden.

Nvidia als discrete chip voor het volledig hardwarematig accelereren van 3d rendering.
Nvidia hanteert dan ook een andere standaard dan alleen 2D en 3D combo
Nvidia zette de GeForce 256 in de markt als 'eerste gpu' die minstens 10 miljoen polygonen per seconde kon verwerken. Het ging ook om de eerste enkele 3d-chip die hardwarematige ondersteuning bood voor 'transform and lighting'
Maar is het wel aan Nvidia om de grens te stellen? Ik kan ook altijd eerste zijn als ik zelf de voorwaarden kies.

Ik ben de snelste renner op de wereld in de categorie die Bart heet een rode auto rijd etc etc.
Nvidia heeft de term GPU bedacht en geïntroduceerd. Dus min of meer kunnen ze dan wel bepalen wat het is. Eerdere kaarten worden vaak naar gerefereerd als 3d accelerator.
Vergeet het maar, die term komt van Sony voor de PlayStation console hardware.
Je bent gewoon in de marketing getrapt. Dat iemand iets claimed maakt het nog niet waar.
Een nieuwe naam voor iets verzinnen maakt je ook niet ineens eerste. Er is een lange geschiedenis van allerlei versnellende hardware voor graphics.

Als je wil zeggen dat Nvidia de term hip maakte prima, maar zelfs dan nog. Het is op zijn best een beschrijvende term.
De term komt al voor in de jaren 70. Dus ook jij bent dan in de marketing van Sony getrapt ;)
O maar daar zit ik niet mee. Ik kan echter alleen bewijs vinden voor Sony, niet eerder.
En jij was de persoon die beweerde dat nvidia het bedacht had, dus spreek je jezelf tegen nu.
Zie mijn andere reactie op jouw post. Daarin staat mijn uitleg.

Overigens staat het van IBM ook gewoon op de wiki waar je naar verwijst.
Ja klopt, je hebt meerdere reacties geplaatst die elkaar tegenspreken, dat heb ik gezien. Eerst zeg je dat nvidia eerst was een daarna zeg je overal dat ibm eerst was.
Prima, dat ibm eerst was, zat ik ook fout, maar ik heb nergens beweerd dat Nvidia eerst was, jij wel, en daar reageerde ik op.
Buiten dat het toen geen ‘GPU’ was. De voodoo gebruikte nog de CPU om geometry te berekenen en kon ook geen shaders en textures verwerken.

De 256 had voor het eerst T&L. Transform en lightning en ontlastte voor het eerst de CPU in geometrische rendering, texturing etc. Hier is voor het eerst de term ‘GPU’ gebruikt. Bij voodoo was er nog geen sprake van die term.


Btw: Geforce 256 naast een RTX 4099, een groot verschil! De 256 had hier wel een cooler, ik dacht even dat het zoals de raspberry pi geen koelblok of koeler had.

[Reactie gewijzigd door Coolstart op 11 oktober 2024 21:34]

Sorry, Sony gebruikte de term gpu eerder voor marketing van de PlayStation console. Nvidia was absoluut niet de eerste. Een ze hebben de term niet bedacht.
Bron? Want ik kan niets vinden.
Tja, want na alle andere mensen hier in de comments die je waar vertellen moet ik googlen voor jou?

Wikipedia: Graphics processing unit

Zoek op Sony en dan vind je het zo. De rest kan je zelf zoeken.
Ik kwam vorige week tijdens opruimen nog een Diamond kaart tegen, uit 1997, met een paar 3DFX chips erop.

Voodoo1 is in 1996 gelanceerd

[Reactie gewijzigd door Menesis op 11 oktober 2024 18:28]

Wees er zuinig op, die dingen worden voor vreemd hoge bedragen verhandeld tegenwoordig. Immers de nieuwe midlifecrisis: retrogamen op originele hardware :P
Weet nog als de dag van gisteren, dat wij bij DES Rotterdam de voodoo banshee kaart binnen kregen en een paar uur later in mijn systeem zat :)
Zoals Call of Duty zegt: "History is written by the victor".

Nvidia was zeker niet de eerste maar de andere partijen van die tijd bestaan niet meer om het te weerleggen.
.

[Reactie gewijzigd door vman128 op 11 oktober 2024 19:14]

Het is marketing, maar van tweakers.net had ik meer verwacht. Op zijn minst het WIKI artikel even doornemen:
Wikipedia: Graphics processing unit
en matrox en ati
Ik had een Banshee, mijn eerste 3D kaart... vree content mee. Maar de Geforce 256 was een grootteorde steviger met een T&L (Transform & Lightning) engine waardoor er nog enkele taken van de CPU efficient overgenomen kon worden. De Voodoo Banshee (1) was zalig door de redelijk goede glide support (de major 3D API), 1 enkele kaart en prestaties tussen de Nvidia TNT1 & Nvidia TNT2 zeker op systemen waar de CPU eerst op bottleneckte.
Mooi toch, 16MB en de discussie op dit forum in het videokaarten topic gaat momenteel over dat in de nieuwe 5080 16GB(!) echt niet meer kan :+
Mja maar spellen tegenwoordig kunnen aardig wat wegvreten, mijn 1080Ti is inmiddels 7,5 jaar oud maar die 11GB heeft zijn geld wel opgebracht want zelfs nu kan het nog spellen als Ratchet & Clank en Hogwarts Legacy op Ultra spelen zonder dat de VRAM in de knel komt, het zit dan vrijwel direct op ~10GB na het opstarten. De GTX 1080 8GB zal dat niet trekken.

En zelfs sommige FiveM servers hebben zoveel content erin zitten dat GTA V ook gewoon de volle 11GB pakt, zelfs GTA V op Ultra heb ik al eens boven de 10GB gehad. Als je overigens GTA V op Ultra instelt op 8K resolutie met 2.5x framescaling dan geeft het spel zelfs een prognose van 32-33GB VRAM benodigd te hebben.

En men vergeet nog wel eens dat VRAM door meer dan alleen spellen wordt benut, sinds DWM geforceerd wordt in Windows en alle schermen via de GPU worden versneld vreet dit ook meer VRAM dan voorheen het geval was en behoorlijk meer, zeker als je browsers open hebt staan met een sloot aan tabbladen.

Gelukkig heeft de 5080 wel meer bandbreedte door het snellere 32Gbps geheugen dan de 4090 dus dat is wel mooi meegenomen voor de hogere resoluties, moet nog blijken of de 256-bits bus daar geen zout in strooit met hogere latency o.i.d.

Zelfs al zou je GPU core het prima op 8K aankunnen en binnen VRAM budget blijven is het vaak de bandbreedte die dan de nekslag geeft op dergelijk hoge resoluties want de framepacing wordt dan enorm inconsistent, ook dus op oudere spellen.

16GB zou ik liever zien als basis nu voor x070 achtige GPUs en 24GB past wel bij een x080 en wellicht kan een x060 nog wel met 12GB om de prijs te drukken maar minder niet.

Ik denk overigens dat dit bewust gedaan is om gaten te creëren voor toekomstige super-releases waarbij sneller (en wellicht meer) VRAM geplaatst wordt.

[Reactie gewijzigd door CriticalHit_NL op 11 oktober 2024 18:52]

Yep, dat laatste inderdaad.

En wat betreft vrij geheugen ook eens, ben van 8GB naar 12GB gegaan, lijkt een kleine stap, maar in feite ben ik van 6GB vrij naar 10GB vrij bruikbaar gegaan, alles draait prima.
De CGA kaart (eerste los verkrijgbare kaart voor de IBM PC) had 16 KB, maar wel een vette 640x200 als twee kleuren genoeg waren. 320x200 als je er vier nodig had.
jup.. kan me toch herinneren dat ik Turok op mijn Voodoo 3dfx eerder draaide als Nvidia:)
Dat komt omdat artikelen 25 jaar geleden door Tweakers werden geschreven.
Maar tegenwoordig zijn het journalisten van DPG Media B.V.
Tegelijk ook de downfall van 3DFX. Ik heb toen nog een Voodoo 3 aangeschaft maar die werd met de Geforce 2 in 2000 en de 256 al snel voorbij gestreefd. Jammer want een derde gigant was nog altijd mooi geweest qua concurrentie naast AMD.

[Reactie gewijzigd door blatenja op 11 oktober 2024 17:06]

Tegelijk ook de downfall van 3DFX.
De neergang van 3dfx bestond o.a. uit het blijven steunen op een verouderde architectuur gecombineerd met een middelvinger richting de partijen die hun videokaarten maakten. Die partijen stapten over op Nvidia.

3dfx werd al veel eerder verslagen, onder andere door de TNT en TNT2. De GeForce 256 was een natrap.

[Reactie gewijzigd door The Zep Man op 11 oktober 2024 17:12]

3DFX bleef te lang bij hun eigen glide API hangen terwijl iedereen overstapte naar DirectX en OpenGL. Je had voor sommige games op je Riva TNT 2 zelfs een glide wrapper nodig om ze een beetje normaal te kunnen spelen op je niet-3DFX chipset.

Vooral dat heeft 3DFX de nek omgedraaid.

Hun laatste niet uitgebrachte kaart, de Voodoo 5 6000, blijft een pareltje om te zien

[Reactie gewijzigd door TV_NERD op 11 oktober 2024 17:30]

Ja, maar voor de eerste keer een game zien met 3DFX actief (geen pixels meer) was echt een openbaring!
Ik doe/deed 3D graphics toen, ik moest 3u wachten op 1 beeld, en die kaart ging effe (wat toen) realistische realtime graphics in games doen. Ik heb direct eentje gekocht :) Maar idd met betere marketing en slimmere beslissingen waren zij nu Nvidia geweest. :)
Ik had 2x Voodoo II 12MB in SLI en deel absoluut je sentiment. Maar ik was ook wat blij met mijn Geforce 256 daarna. Dat was in alle opzichten een enorme stap, volgens mij kwam ik toen van een TNT2. In die jaren gingen graphics elk jaar nog met sprongen vooruit, wat een leuke tijd om meegemaakt te hebben. De TNT2 en Geforce 256 zijn volgens mij binnen minder dan een jaar na elkaar uitgekomen.

Het is nu allemaal veel meer incremental maar van de potentie van Ray Tracing over een aantal jaar als we dat net zo makkelijk draaien als een Geforce 256 toen Alpha Blending deed vergeleken met de 3DFX kaarten. Die tijd komt eraan maar het gaat met stapjes, kleine stapjes. Het is ook voor developers makkelijker want die hoeven dan geen lightning meshes meer te bouwen.

[Reactie gewijzigd door TV_NERD op 11 oktober 2024 18:20]

Klopt, ik zag op een LANparty iemand rondlopen in quakeworld dm4 maar het was alsof het een ander spel was… ‘s anderendaags een Voodoo 1 gaan kopen. Daarna een Voodoo 2, TnT 2 Ultra en zeker die laatste was in mijn ogen toch al een GPU.
Wat dat niet een kaart die door een modder is gemaakt?
ja, dat is zeker niet een originele nee, die ik overigens mooier vind dan deze versie, maar dat is persoonlijke voorkeur natuurlijk :)
Die 6000 op de foto is een "remake" om het zo maar te noemen.

Maar wel een hele mooie met die koperen heatsinks op zwarte PCB, de witte versie is ook prachtig.
Ik was toch blijer met mijn voodoo banshee dan een TNT
Ik was toch blijer met mijn voodoo banshee dan een TNT
De Banshee was voor 3D eigenlijk minder dan een Voodoo2. En de Voodoo2 was nog wel product of choice tov een TNT, maar zeker vanaf de TNT2 Ultra nam Nvidia het over.
Dat het minder was dan een voodoo2 zou ik niet zo zeker van zijn. De Diamond kaart die ik destijds had liet sommige voodoo2 kaarten net achter zich. En zeker glide performance was beter.
Verschilde per game. Wanneer een game beide texture mapping units van de voodoo2 kon gebruiken (vanaf dx6, dx5 games konden er maar een gebruiken), dan was de voodoo2 sneller.
In glide games die minder dan 8 of 12mb vram nodig hadden was de voodoo2 een stukje sneller. In dx5 games en games die wat meer geheugen vereisten, was de banshee weer iets sneller.

Voorbeelden: in synthetische benchmarks als 3dmark99 en 2000 was de banshee een stukje sneller, maar in (Gl)quake 1 en 2 was de voodoo2 significant sneller. In forsaken was de banshee weer sneller, in unreal de voodoo2 een tikje sneller etc.

[Reactie gewijzigd door GromuhlDjun op 12 oktober 2024 01:39]

Dat is wat ik schreef toch?
Misschien moet ik op bepaalde tijdstippen niet meer reageren :P |:(
Ah zo erg was het ook weer niet, het voegde in ieder geval een paar voorbeelden toe :)
Dat het minder was dan een voodoo2 zou ik niet zo zeker van zijn. De Diamond kaart die ik destijds had liet sommige voodoo2 kaarten net achter zich.
Nou nee, hij liet niet "sommige" kaarten achter zich. In sommige situaties liet hij Voodoo2 kaarten achter zich, dat is een juistere stelling.

Overall, echter, was de Voodoo2 toch echt wel de betere.

Leuke blast from the past hier: https://www.anandtech.com/show/197
[...]if you don't mind using two cards to handle your video tasks, the 3Dfx Voodoo2 still seems to be the best solution from an overall performance standpoint[...]
TNT2 was echt een geweldig ding destijds.
Wat zal dat geven binnen nog eens 25 jaar vraag ik mij dan af :)
Als ik het transistor-aantal en de bandbreedte bekijk, zie ik grofweg 3 ordes van grootte - een factor 1000 - verschil. Nou zullen die getallen niet te vergelijken zijn en weinig zeggen over de praktijkperformance, maar we hebben vast mooie apparaten over 25 jaar!
In het verleden behaalde resultaten zijn niet bepalend voor de toekomst. De als je de laatste 25 jaar bekijkt zie je al meer dan de helft van die tijd de performanceverbetering behoorlijk afvlakken.
En dan neem je externe factoren zoals geopolitieke zaken (Taiwan) niet eens mee. Het kan ook maar zo zijn dat we het over 25 jaar met minder moeten doen dan we nu hebben.
Het grote verschil is als je kijkt naar de stijgende lijn, deze is niet recht, maar loopt steeds schuiner omhoog. Je zou misschien kunnen zeggen dat de winst eerst x1 was, het jaar erop x2, het jaar erop x4. (Niet te letterlijk nemen uiteraard)

Nu wordt AI ingezet om de ontwikkelingen te ondersteunen wat dus voor een nog snellere toename gaat zorgen, en naar mate GPU’s steeds krachtiger worden voor dit soort berekeningen, des de beter worden de simulaties en resultaten. Wat de spiraal alleen nog sneller versnelt…

Wat in 25 jaar bereikt is, zullen we misschien nu al over 10 jaar al weer zien.
Dan moeten we wel eerst over naar een andere technologie, Moore's law is dood en de enige manier om snellere chips te maken is door ze groter te maken (Als ik kijk naar nvidia). Bij 1nm krijg je quantum tunneling problemen, waardoor het een bitje lastig wordt om een goede werking van je chips te hebben.
Maar tot die tijd wordt alles vooral steeds duurder omdat de chips zoveel groter worden èn alles wordt AI en as a service (+monopoliepositie van nvidia). Zou me niks verbazen als we over 25 geen geavanceerde GPU's meer kunnen kopen /pessimistmode.
zo oud ben ik dus helaas
Ik had in mijn pc de Tseng Labs ET4000, nog erger :-)
Ik een ATI hercules kaart die ook nog CGA kon. (Ik kon dus kiezen, of hires, of 4 kleuren).
Ik heb nog een 80-kolommenkaart gehad in mijn Apple ][ 🥹
Mwoah, vesa local bus en tot 2mb vram? Die kaartjes draaiden doom supervloeiend tussen 25 en 35fps! Mijn vader had zo'n kaart in zijn systeem: de hercules dynamite pro 2 (ofzo) icm een 486dx2 50mhz :9~ was genieten in doom!
PaT Moderator Mobile @3meter13 oktober 2024 07:49
Die (of de 6000) hadden wij ook. Dat ding heeft nooit goed samen gewerkt met de Miro videobewerkingskaart die we.hadden, terwijl die twee wel compatible zouden moeten zijn.
Later ook nog een 3DFX Voodoo kaart aan het geheel toegevoegd. Dat was voor gamen wel echt da bomb.

Het waren.mooie.tijden met heel veel tweaken. Zoeken naar de juiste driver combo's, overclocken met wat jumpers...leuk man.

En toen ging de ontwikkeling ieder jaar nog met stappen vooruit. Als je dat vergelijkt met de relatief kleine stappen van vandaag is het wel logisch dat steeds meer mensen zoiets hebben van 'het model van dit jaar sla ik over....'

[Reactie gewijzigd door PaT op 13 oktober 2024 07:50]

dus dat de T&L hardware-matig werd, maakt het de "eerste officiële" GPU van NV? Overigens veel plezier gehad van de TNT2 daarvoor, daarna ben ik een enkele kaarten ATI gebruiker geworden echter. Die radeons waren beter :P
Volgens wiki over GPU is de FireGL 4000 uit 1997 de eerste kaart die hardwarematige T&L deed. Wel wordt verderop aangegeven dat de Geforce de "first consumer-level card with hardware-accelerated T&L" was.

Dus het keyword is "consumer-level", wat natuurlijk nogal vaag is.

Los van de dubieuze "eerste" claim, was de Geforce natuurlijk wel een enorme stap, en een zeer invloedrijke kaart.
Consumer Level lijkt mij een product dat geschikt is voor particulier gebruik nadat bedrijven het oorspronkelijke design betaald en gebruikt hebben ^^ daarom koop ik bijna altijd gebruikte hardware en software want het is toch al het Overschot voor de goddelozen..
S3 Virge iemand? Dat was mijn eerste videokaart :)
Alhoewel officieel 2D/3D Accelerator genoemd, lijkt het me toch een eerdere versie van een GPU.
Beetje vreemde definitie om het pas een GPU te noemen als het pas bepaalde taken kan uitvoeren. Zo kan ik ook de "eerste" zijn die iets ontwikkeld, als ik er mijn eigen definitie op loslaat ;)
Ook gehad. Ben begonnen met een CGA/hercules kaart. Telt dat ook :9~
Toen zat ik nog op mn c64
Zoals bij de "beste supermarkt" claims, waarbij ze evenveel categorieën als supermarktketens gedefinieerd hebben....
Je had inderdaad ook de Vodoo. Volgens mij had ik een S3. Met z’n harde plastic 3D bril .
Maar de S3 Virge was geen 3d accelerator, maar een 3d decelerator 8)7
Ik had toen als eerste een Voodoo 1 3DFX videokaart daarma GeForce 2 MX-400 kaart. Later ging ik over op de tegenpartij van de GeForce 3 IT 500 de ATI Radeon 8500 kaart.
Die 8500 was een beest. De LE had ik met pipelines om te unlocken...
Mijn eerste grafische kaart met 3D acceleratie was een Vodoo 3. Ik kon ineens allerlei games met hardware rendering spelen. Wat een vooruitgang.
Van mij een Creative S3 Savage4. HiRes textures in UT.
Hier ook. Een S3 Savage 4 met S3TC speciaal voor UT. Later is dit gekocht door nVidia geloof ik en is de S3TC geïntegreerd. De hardware ging vervolgens ter ziele. Mooie tijd, daarna 3DFX in SLI opstelling

Op dit item kan niet meer gereageerd worden.