Bedrijf dat 'RTX 5090-killer' beweert te maken meldt tape-out eerste gpu

Bolt Graphics meldt dat de eerste testchip van zijn Zeus-gpu is geproduceerd. Het Amerikaanse bedrijf claimde begin dit jaar dat het aan een gpu werkt die tot wel 150 procent sneller is dan een RTX 5090, en tegelijk veel minder energie gebruikt.

De testchip van de Zeus-gpu zou zijn geproduceerd op de 12FFC-node van TSMC, die al sinds 2017 in gebruik is. Tijdens de CES-beurs claimde een vertegenwoordiger van Bolt Graphics tegenover Tweakers dat de chip op 5nm gemaakt zou worden. Volgens het nieuwe persbericht 'adresseert de schaalbare Zeus-architectuur ook geavanceerde nodes, zoals 5nm'.

Citaat van oud-AnandTech-journalist

Opvallend is dat het persbericht een citaat van Ian Cutress bevat. Cutress is een oud-schrijver van AnandTech en tegenwoordig professioneel analist. Hij bevestigt op X een aantal dagen geleden het kantoor van Bolt Graphics te hebben bezocht. De betrokkenheid van Cutress maakt het verhaal van Bolt, dat bol staat van de boude claims, op z'n minst iets geloofwaardiger.

Radicaal nieuw ontwerp met RISC-V en pathtracing

Technisch gezien werkt de Zeus-gpu compleet anders dan bestaande grafische processors van bijvoorbeeld AMD en Nvidia. De gpu bevat RISC-V-cores met Bolts eigen accelerators voor pathtracing. Daarin moet de gpu dan ook 150 procent sneller zijn dan een RTX 5090. In fp64-berekeningen met hoge precisie, vooral relevant bij zakelijke high-performance computing, zou Zeus zelfs drie keer zo snel zijn.

Tijdens CES zei de chipontwerper dat bestaande games die DirectX 12 of Vulkan gebruiken makkelijk geschikt te maken zijn voor de Zeus-gpu. In het persbericht dat nu is uitgestuurd, wordt over gaming niet gerept, maar wordt de chip vooral aangeprezen met zijn geschiktheid voor hpc, rendering, simulatie van elektromagnetische golven en 'opkomende, rekenintensieve applicaties'.

AI wordt opvallend genoeg niet genoemd. Voor AI-toepassingen – en trouwens ook voor traditionele rasterisation in games – is vooral de snelheid bij berekeningen met enkele precisie (fp32) en lager relevant. Daarin is deze gpu helemaal niet zo goed. Bolt Graphics deelt met Tweakers dat één Zeus-gpu 10Tflops haalt bij fp32-berekeningen, wat slechts 10 procent van het prestatieniveau van een RTX 5090 is.

Bolt Zeus 1c26-032 Nvidia GeForce RTX 5090
Formfactor Single-slot PCIe Dual-slot PCIe
Prestaties (vector) Fp64: 5Tflops
Fp32: 10Tflops
Fp16: 20Tflops
Fp64: 1,6Tflops
Fp32: 105Tflops
Fp16: 105Tflops
Prestaties (matrix) Int16: 307Tflops
Int8: 614Tflops
Int16: 419Tflops
Int8: 838Tflops
Prestaties (pathtracing) 77 gigarays 32 gigarays*
Cache op chip 128MB 98MB
Geheugen Max. 160GB @ 363GB/s
32GB Lpddr5x + 2x DDR5-Sodimm
32GB GDDR7 @ 1792GB/s
Tbp 120W 575W

* = 'gigarays' is geen bekende eenheid; het cijfer voor de RTX 5090 komt van Bolt Graphics

De 'testchip' krijgen we voorlopig nog niet te zien

Hoewel Bolt Graphics claimt een testchip te hebben en Cutress die dus mogelijk gezien heeft, publiceert het bedrijf er geen foto van. In plaats daarvan laat het opnieuw een render van een soort videokaart met twee PCIe 5.0 x16-interfaces zien, voorzien van Lpddr5x-geheugenchips en uitbreidbaar met Sodimms. De kaart heeft één achtpins PEG-connector en een 400Gbit/s-netwerkinterface. Volgens het bedrijf wordt het mogelijk om meerdere gpu's met elkaar te combineren, tot wel zestien stuks in een 2U-server.

Bolt Graphics herhaalt dat de Zeus-gpu in 2027 in massaproductie moet gaan, al noemt het nu wel expliciet het vierde kwartaal van dat jaar als doel.

Bolt Graphics Zeus gpu

Door Tomas Hochstenbach

Redacteur

22-04-2026 • 18:33

62

Reacties (62)

Sorteer op:

Weergave:

Ik zag dit een tijdje terug ook al voorbij komen.
Het is wederom ronduit misleidend om de vergelijking met de RTX5090 te maken.

Videogames gebruiken niet of sporadisch FP64. Dat is dubbele precieze en veel te hoog voor rendering van polygonen in videogames. Games werken primair met FP32 en in steeds grotere mate ook met FP16 om het renderen juist te versnellen, halve precisie dus. En kijk daar naar de waarden. Qua FP32 claimen ze 10 TFLOPS. Dat is dus vergelijkbaar met een XSX, PS5 of een videokaart zoals de RTX2070Ti of RX5700XT. Een GTX1080Ti zat al over de 11TFLOPS.

Zelfs als de drivers goed zijn, we hebben de problemen gezien die Intel had, dan alsnog is het theoretische maximum veel te laag voor gaming. 10TFLOPS is inmiddels niet eens een instapmodel meer. En theorie en praktijk verschillen ook behoorlijk. Dat theoretische maximum haal je in de praktijk niet. Bijvoorbeeld de A770 van Intel, tikte al bijna 20TFLOPS FP32 aan, het dubbele. Ze hebben die theoretische rekenkracht, alleen nooit eruit kunnen halen.
https://www.techpowerup.com/gpu-specs/arc-a770.c3914

Nvidia heeft ook steeds meer moeite om theorie in praktijk om te zetten. Bij AMD deden ze dit behoorlijk aardig met RDNA1/2. Met RDNA3/4 zijn ze alleen een andere weg ingeslagen. De TFLOPS waarden aldaar zijn ook vertekenend en bij lange na niet haalbaar in de praktijk.

Ze vergelijken vervolgens niet met de dedicated HPC GPU's van AMD en Nvidia, omdat hun beste producten, mijlenver voorliggen in FP64. Nvidia GH100 NVL2 haalt 64TFOPS FP64.
https://www.nvidia.com/en-us/data-center/grace-hopper-superchip/

Of helemaal de MI350X. Deze haalt 72TFLOPS FP64, niet 5.
https://www.amd.com/en/products/accelerators/instinct/mi350/mi350x.html
Mss wel wat nuanceren. Ze focussen 100% op pathtracing. Hyper realistische renders dus. Filmstudios’s gebruiken het, Vray in 3D rendering etc. Een RTX5090 met RT en raster cores maar kan niet zo goed om met Pathtracing. Toch niet als je het met rendertijd per dollar gaat berekenen. En dat telt door als je 24/7 meerder racks hebt draaien.

Ze ontwikkelen dus een compleet systeem dat puur focust op pathtracing.

De RTX5090 is idd wel een zinloze vergelijking wat die is GPU-only en kan je niet koppelen in een netwerk zoals de Zeus dat kan. Dus de RTX5090 verliest sowieso in die specifieke usecase. Als je pure path tracing draait, ligt 70% van die chip gewoon stil maar heb je er wél voor betaald.

Een ander voorbeeld zijn wetenschappelijke calculaties met hoge numerieke precisie. Soms gebruikt men ook letterlijk pathtracing zoals bij simulaties van kernsplitsing.

Vergelijk het met een 4X4 van 150pk die het 10x beter doet dan een 500pk raceauto op het veld. Die laaste krijgt zijn vermogen niet aan de grond.

Path tracing is en rekenmodellen wil je 100% in ram draaien. Dus veel ram (honderden gigs) veel snelle interconnectclusters kunnen meerdere terabites aan ram huisvesten in een rack. Die 400Gbit/s-netwerkinterface is dus geen overbodige luxe.

Het is dus een nichekaart bomvol tech op 1 niche usecase en die vergelijking met de RTX 5090 Is pure marketing. Gewoon om op te vallen. En dat lukt blijkbaar. Ze hebben zich op de kaart gezet.

Voor Nvidia is die markt mogelijk te klein. Die focussen zich nu toch op AI.
Er zijn tegenwoordig AI modellen die dat meer dan real-time doen (schaduwen, reflectie van reflectie van reflectie etc.).

Kijk op https://youtube.com/@twominutepapers een tijdje terug.
Daar moet dan alleen een enorme hoeveelheid externe rekenkracht tegenaan worden gegooid. De modellen achter AI zijn niet bepaald zuinig met energie, en dat ga je eens terugvinden op je afrekening.

Als je in de niche zit die zelf pathtracing wil doen, lijkt me dus AI niet een heel waarschijnlijke keuze. Nog even afgezien van het feit dat er genoeg toepassingen te bedenken zijn waarbij je de resultaten liever niet aan Altman afstaat ;-)
Nee, het gaat natuurlijk om lokale modellen die op dezelfde GPU veel sneller werken dan de fysische of wiskundige modellen die tot nu tue gebruikt werden, anders is het echt nutteloos om het met AI te doen.

Het is een wetenschappelijke kanaal. Alles over sponsor 'Lambda' kun je skippen in de videos, de rest is echt inhoudelijk met verwijzingen naar de bron papers.

[Reactie gewijzigd door djwice op 22 april 2026 23:32]

Ik heb tonnen aan filmpjes gezien van dat kanaal maar echt heel weinig komt werkelijk in redelijke tijd in games terecht. Het meeste wat daar voorbijkomt wordt niet in real time en op zware workstations/servers gesimuleerd.
We hadden het hier over een specifieke case. Die was juist wel realtime.
Welk filmpje was dat dan? Die gast heeft er zoveel. Ik heb gezocht naar AI shading en schaduwen, maar het filmpje dat het beste in de buurt kwam van wat je hierboven beschreef was alweer 9 jaar oud...
Als ik t zo lees en simpel gezegd, een beetje stand alone Voodoo3D idee?
Alleen sneller op FP64. Dat heeft Nvidia bewust niet snel in de RTX5090 kaarten zitten omdat gamers FP64 niet nodig hebben en de bedrijven die FP64 nodig hebben voor AI en andere HPC taken dus de professionele duurdere kaarten moeten kopen.
Ter aanvulling wellicht is vergelijken met https://www.amd.com/en/pr...nstinct/mi200/mi250x.html realistischer en dan zien we dat AMD tot 4x energie efficiënter is als de fp64 in eenatrix berekening zitten.

En dat deze 47 tot 95 TFLOP fp64 leverd tegen een prijs die onder de RTX 5090 ligt. En daar heb je niet veel aan bij gaming of AI berekeningen.

[Reactie gewijzigd door djwice op 22 april 2026 22:46]

De genoemde TFLOPS waarden zijn altijd maximaal haalbare waarden als alles meezit, wat in de praktijk natuurlijk nooit het geval is. Geheugenbandbreedte is een factor die alle theoretische waarden onderuit haalt. Als je de data niet snel genoeg in de cores kun krijgen om er de berekeningen mee te doen, dan zit je ver onder het theoretische maximum.

De hoofd architect van CUDA heeft ooit een mooie serie presentaties gemaakt waarin dit aan de orde kwam. Voor een A100 (de Ampere Data Center GPU met significante voordelen in geheugen bandbreedte t.o.v de Amper consumer GPUs) was er al iets van 73 berekeningen nodig om het binnenhalen van een data element uit het geheugen qua tijd zinvol te maken, anders staan de cores voornamelijk te wachten op het binnenkomen van data. En de A100 had een geheugenbandbreedte van 1.5 TB/s!

Dus dat Bolt schermt met een hoger FP64 prestatie niveau t.o.v de RTX 5090 is leuk voor de marketing, maar of dat in de praktijk zinnig is voor het beoogde doel (Path Tracing) valt nog te bezien.

Voor mij is Bolt de 2026 versie van Bitboys Oy, die zouden ook met iets revolutionairs komen en daar is niet teveel van terecht gekomen. De Glaze3D werd ook met veel fanfare de wereld in geblazen, waarschijnlijk om investeerders te trekken en bleek uiteindelijk vaporware!

Wikipedia: BitBoys
Het is wederom ronduit misleidend om de vergelijking met de RTX5090 te maken.
Videogames gebruiken niet of sporadisch FP64.
Ik durf te wedden dat de markt voor non-game toepassingen veel groter is dan de games markt.,
Er zullen erg weinig gamers zijn die 2k droppen voor een 5090. Volgens steam heeft ongeveer 1 op de 230 gamers een 5090. Dat is nou niet echt een grote markt.
Een chip die kan werken van 12 nm tot en met het nieuwste proces, 3 nm en wat is het in 2027, 2 nm?

Lijkt me nogal inefficiënt. Waarom zou je een gpu op 12 nm nog willen uitbrengen en niet op minimaal 5 nm? 12 nm is het proces van een Geforce RTX 2000-serie.

En Lpddr5x + 2x DDR5-Sodimm?
  • bandbreedte is bijzonder laag tov gddr6/7
  • Niet geoptimaliseerd voor grafische zaken (geen GDDR)
  • Combineren van Lpddr5x met regulier DDR5? Dat zijn 2 technieken door elkaar met andere voor en nadelen en die worden dan gemixt, waardoor je het slechtste van beiden overhoudt?
Ik geloof er echt geen bal van dat dit daadwerkelijk een product gaat worden.

Zoals anderen al zeiden, je kunt leuk op 1 klein onderdeel stukken sneller zijn, maar als je het op andere onderdelen vele malen slechter doet, is het eindresultaat zeker niet beter dan de huidige GPU’s (zeker niet op gaming gebied).

[Reactie gewijzigd door White Feather op 23 april 2026 06:46]

Ze hebben nog niets laten zien, ze gaan nu hun eerste hardware maken. Een chip maken kost veel geld. Om aan te tonen dat hun chip echt werkt starten ze goedkoop. Hoewel de GPU waarschijnlijk duur zal zijn voor ons. Het idee is dat ze schaalbaar zijn en hun chip nog beter is op een nieuwe technology node.

Eerst maar eens hardware maken en hun software stack goed opzetten. Intel, geen kleine club, heeft moeite met goede drivers voor zijn GPU (voor games). Zonder goede driver geen goede performance.

Daarna, dan klagen we ook nog eens over de hardware.

Ik wil het wel zien. Wie weten hebben ze iets goeds.
Er zit een shitload aan dubieuze statements en technische keuzes in. Daar ga je totaal niet op in. De vergelijking wordt gemaakt met een high end game-kaart, waarbij deze chip voor dat gamen juist extreem slecht zou scoren.

Werkelijk het enige dat deze chip qua specs beter heeft dan een 5090 is de FP64. Dat is in een Geforce 5090 juist extreem gecastreerd omdat Nvidia wil dat je een professionele kaart koopt die vele malen meer kost.

Als je naar de onderstaande cijfers kijkt, is dit gericht op HPC:

Bolt Graphics

Fp64: 5Tflops (+212%)
Fp32: 10Tflops (-90,5%)
Fp16: 20Tflops (-81%)

Nvidia RTX 5090

Fp64: 1,6Tflops
Fp32: 105Tflops
Fp16: 105Tflops

Een gpu voor games gebruikt bijna alleen FP16.

En die 20 Tflops FP16 zijn 30% lager dan een Geforce GTX 1050 uit 2016.

Geheugen is 363 GB/s?

Een dual channel DDR5-SoDimm-set op 6400 MT/s (snelste in de Pricewatch) heeft een bandbreedte van 102,4 GB/s en daar komt 128 GB van de totaal 160 GB vandaan. Ook een rare claim dus. En je hebt er ook nog eens een zeer exotische geheugencontroller voor nodig omdat DDR5 anders werkt dan LPDDR5X.

Bovendien is juist in HPC doorvoersnelheid extreem belangrijk.

Blackwell zit op 8 TB/s.

En de gedachte dat dit ook maar iets voor gaming gaat doen?

Als zelfs een toko als Intel het bijzonder lastig heeft gehad om goede drivers te maken en rekening houdend met de gigantische achterstand in game-performance. En zij hebben sinds 2010 nagenoeg iedere cpu voorzien van een igpu. Dus meer dan 15 jaar ervaring. (Je kunt nog terug naar 1998 voor de i740.)

Dit hele verhaal voldoet echt aan alle eisen van BS-Bingo.

Als je op hun site kijkt staat er “Zeus is a next-generation compute platform designed to reduce the total cost of compute by up to 17 times across high-performance computing (HPC), rendering, and emerging compute-intensive applications.”

Dat wil dus helemaal niet zeggen dat ze ook maar in de buurt komen qua performance met de rest van de markt, ze zijn alleen per taak 17x goedkoper.

[Reactie gewijzigd door White Feather op 23 april 2026 09:29]

De RTX5090 een gamerkaart noemen is denk ik wel overdreven. De meeste mensen die die kaart kopen zijn renderartiesten en ai onderzoekers. Voor veruit de meeste gamers is de 5090 prijstechnisch unobtainium.
Ze vergelijken zelf met een 5090.

En ik beweer nergens dat een 5090 een gamerkaart is.

Een 5090 is goed in:

Gaming, AI en rendering, zeker niet de HPC en Raytracing waar deze chip volgens de specs stukken sneller zou moeten zijn.
Artiesten met workstations voor raytracen zitten anders te springen om 5090's... En ook voor simulaties en kleine ai modellen trainen..
Zucht, deze discussie is echt totaal nutteloos.

Het gaat niet om wat er wel of niet met een 5090 kan.

Het gaat om hoe deze fabrikant zijn techniek presenteert en zijn product plaats. De vergelijking die gedaan wordt, is totaal kansloos.

Dit product is gericht op HPC en Raytracing en is daarin veel sneller qua specs veel sneller dan een Geforce 5090.

In gaming of ai is het volgens de specs verhoudingsgewijs totaal knudde.
In gaming of ai is het volgens de specs verhoudingsgewijs totaal knudde.
Is path tracing dan niet de grote nieuwe trend in games? En wordt dat op dit moment niet ernstig belemmerd door de prestaties van de gangbare gpu's?
Nvidia gebruikt op dit moment AI om het gebrek aan path tracing mogelijkheden op te lappen.
Ja, pathtracing is Raytracing on steroids. Daarmee kun je heel realistische beelden maken, wat onder andere voor games idd.

Maar leuk dat deze nieuwe kaart goede pathtracing heeft, maar de geheugendoorvoer is knudde en de fp16 ook, ai waarschijnlijk ook (want ze hebben het er niet over en je hebt er speciale instructies voor nodig en die hebben ze niet genoemd), dus gamen gaat er echt vele malen slechter op.

De bandbreedte is in de range van een GTX 1080 uit 2017.

Renderfarms of HPC, daar zou deze kaart tot zijn recht komen, maar voor beiden is er relatief weinig bandbreedte. Dus daar zouden ze een gigantisch goede en grote cache e. Cachetechniek voor kunnen hebben, maar daar hoor je ze niet over.
Ik geloof er echt geen bal van dat dit daadwerkelijk een product gaat worden.
Lijkt me raar als het tot een tape-out komt zonder dat ze dit al uitgebreid gesimuleerd hebben en weten wat de performance van het systeem (de kaart als geheel) gaat worden.
Gevalletje eerst zien dan geloven. Veel opgezwollen gezwets en vrijwel geen 'bewijs'
De oudgedienden onder ons herinneren zich misschien nog de Bitboys Glaze3D kaart die de concurrentie zou verpletteren.
Met al die extra aansluitingen op een kaart moest ik vrijwel meteen aan de Bitchin' Fast 3D 2000 denken, die wordt ook "gereviewd" in dat kanaal.
Voor de doelgroep van deze GPU is de RTX 5090 ook helemaal niet relevant. Daar heeft nVidia de Tesla-serie voor, zoals de B200, die in 2024 al praktisch 8x de FP64-rekenkracht had van deze GPU (in twee dies, dus per GPU 4x met een stroomverbruik dat per GPU ook 4x zo hoog ligt). Tot dusver lijkt het me dus vooral grootspraak om interessant te doen.

Dat gezegd hebbende: als het Bolt inderdaad lukt om in 2027 kaarten aan de man te brengen die op het niveau zitten waar nVidia in 2024 zat, dan is dat een prestatie om trots op te zijn. Ik ben heel benieuwd of we hier nog meer van gaan horen.

[Reactie gewijzigd door SterkeYerke op 22 april 2026 19:19]

Ik vind het jammer dat ze omwille van marketing proberen zich te meten met de 5090, zoals je zegt, als ze een beetje kunnen produceren dan is dit een geweldige prestatie voor een eerste kaart. Met die ervaring kunnen ze verder itereren en nog betere hardware maken. Uiteindelijk kan het ze misschien lukken om te concurreren met groen en rood. Om nu al van die uitspraken te doen doet af aan hun geloofwaardelijkheid in de toekomst.
Ik wacht de eerste benchmarks wel af.
Dat denk ik ook.
Wel zou het mooi zijn als het een kaart wordt die goed presteert, (veel) minder verbruikt en ook veel minder kost. Ook al komt die niet eens in de buurt van een 5090.

Al is het maar om de 2 grote merken het iets wat "warmpjes" te laten krijgen. Alleen is dat al een hele grote opgave.

[Reactie gewijzigd door Mit-46 op 22 april 2026 19:26]

Afhankelijk van je usecase natuurlijk.

Als je tien van deze kaarten nodig hebt om aan de Fp32-performance van een 5090 te komen, dan heb je dus ook tien keer die 120 Watt (en een mainboard met tien PCIe-sloten en voldoende lanes, wat ook een uitdaging gaat zijn).

Over de prijs wordt niet gerept, maar tien van deze kaarten voor de prijs van een 5090 zou betekenen dat de kaart niet meer dan 350 euro mag kostne om het interessant te maken.

Maar goed - als je usecase pathtracing is, dan wordt het wel interessant. Mits 160 GB aan SoDIMMs tegen die tijd nog een beetje betaalbaar is.
Dit kunnen we alleen maar toejuichen. We hebben dringend meer competitie nodig op de gpu markt.
Hoe is het competitie? Dit ding is in bepaalde grensgevallen goed, waar de huidige gpus het laten liggen. Dan is er dus geen competitie, want in al het andere wat belangrijk is, slaat deze gpu de plank volledig mis, met maar 10% van de prestaties. Dan komt die ook nog eens eind 2027 pas op de markt. Nou ik denk dat Nvidia, amd en Intel al slapeloze nachten hiervan hebben....
Ik ben het wel eens met @klakkie.57th. Dan hadden ze het de RTX PRO 6000 Blackwell-killer moeten noemen en niet een RTX 5090-killer. RTX 5090-killer suggereert dat ze doelen op gaming terwijl een RTX PRO 6000 Blackwell het "professionele" equivalent is van een RTX 5090.
Tja, maar dan zeggen ze ook nog eens op de CES
Tijdens CES zei de chipontwerper dat bestaande games die DirectX 12 of Vulkan gebruiken makkelijk geschikt te maken zijn voor de Zeus-gpu
Dan richt je je dus wel op de gaming markt, met 10% van de prestaties..

Dus ze moeten of hun gehele marketing ff opnieuw uitvinden of we moeten concluderen dat dit verre van concurrentie is.
Nee. Als Bolt zich op de gaming markt zou richten, dan hadden ze een DirectX driver gemaakt. "Games geschikt maken voor Zeus" was dan onnodig geweest.
Ja dus is de marketing divisie van Zeus gewoon poep aan het gooien. Zij roepen het is een RTX 5090 killer (een gaming GPU) zij hebben op CES geroepen dat het makkelijk geschikt te maken is voor games in DX12 of Vulkan (weer wijzen naar games) en vervolgens in het beste geval niet meer dan een add-on kaart te zijn als een PhysX kaart vroeger. Degelijk enkel in path tracing. Daarnaast met 160GB geheugen zal een RTX5090 ook wel heel leuk path tracing kunnen doen. Je kijk dan enkel naar een kaart die net zo duur is als een middenklasser auto.
Luchtfietsers hebben we echt al genoeg van. Ik denk dat zij tot die categorie behoren. Als je al ziet hoeveel moeite een bedrijf als Intel heeft om een goede consumenten gpu te maken...

[Reactie gewijzigd door 418O2 op 22 april 2026 18:44]

Als die kaart echt zo goed werkt en dan ook nog maar 120 Watt verstookt, dan is dat wel heel erg indrukwekkend. Dat lage wattage maakt de claim ook erg ongeloofwaardig maar ik hoop eerlijkgezegd wel dat dit werkelijkheid wordt want electriciteit besparen met zulke grote getallen gaat cumulatief voor een hele grote besparing zorgen op termijn.
Misschien dat het percentage dat ze noemen wat optimistisch is, maar we komen nu wel in een fase waarbij het energieverbruik belangrijker gaat worden dan de prestaties. Dus ik kan me voorstellen dat als je iets nieuws wilt doen je je daar op focust (misschien ten koste van wat andere zaken).
Ach, als die net zo snel is als een 5080 en maar 120 watt verstookt dan is het al indrukwekkend.
Als deze klaar is dan zal de 6090 of 7090 er al zijn.
Nvidia heeft nu ook al chips die 150% of meer beter zijn dan de 5090 die nog in testfase zit.
Het is bijna eind april... beetje laat niet? ;).

Als er al iets van waar is (wat ik tenzeerste betwijfel), dan zal het waarschijnlijk over een heel specifieke usecase gaan. Maar ik acht de kans vele malen groter dat dit komt van 1 of andere overenthousiaste marketing manager.

Net zoals alle andere bedrijven in het verleden die "trust me bruh" wetenschap hanteren.
Binnen enkele maanden rebranden naar AI, stockprijs x6 zien gaan, uitcashen en hop.
Ah, de opvolger van de Bitchin'fast 3D 2000 is er.
Ik snap de scepsis, flashback naar Matrox Parhelia. (24 jaar geleden..., wordt oud) Maar aan de andere kant is het juist fijn dat iemand zich weer op de gamers richt!
Dit is juist weinig op gamers gericht. Deze blinkt puur uit in fp64 performance, die nou juist voor gaming niet het meest relevant is.

Om te kunnen reageren moet je ingelogd zijn