Start-up beweert gpu te ontwikkelen die tot 150% beter presteert dan RTX 5090

Boude claims zijn veel stands op de CES-beurs niet vreemd – je moet toch op een manier de aandacht trekken – maar die van Bolt Graphics zijn wel heel groot. Deze start-up claimt in 2027 een gpu op de markt te gaan brengen die in sommige scenario's veel sneller is dan de RTX 5090.

Waar AMD en Nvidia vol op de AI-trein zijn gesprongen, is dat woord opvallend afwezig in de pitch van het bedrijf. De gpu zou bijzonder goed zijn in berekeningen met hoge precisie, zoals fp64, en een speciale pipeline voor pathtracing hebben. In fp64-berekeningen zou de Zeus-gpu 200 procent sneller zijn dan de Nvidia GeForce RTX 5090, in pathtracing moet hij 150 procent sneller zijn.

De prestatieclaims die Bolt Graphics doet op CES
De prestatieclaims die Bolt Graphics doet op de CES

Volgens medewerkers op de stand van Bolt Graphics is de architectuur van de gpu zelfontwikkeld. De gpu wordt aangestuurd door een RISC-V-cpu die onderdeel is van dezelfde chip. De videokaart kan daarom niet alleen als insteekkaart, maar ook als standalone pc worden gebruikt. Het pcb op de render toont twee PCIe 5.0 x16-interfaces, waarvan de tweede voor het onderling verbinden van meerdere gpu's zou zijn. Ook is er gesoldeerd Lpddr5x-geheugen te zien, net als extra so-dimm-slots om dat uit te breiden. De kaart heeft één PEG8-connector voor de stroomtoevoer, wat betekent dat hij genoeg moet hebben aan 225W. De gpu zou worden geproduceerd op een enigszins verouderd 5nm-proces van TSMC.

Hoewel de RISC-V-cpu in de gpu alleen geschikt is om Linux te draaien, moet het volgens Bolt Graphics makkelijk worden om bestaande games en programma's te gebruiken. Zo zouden DirectX 12 en Vulkan worden ondersteund, waarbij ook diverse populaire game-engines werden genoemd.

De getoonde videokaart bestaat vooralsnog alleen als render.
De getoonde videokaart bestaat vooralsnog alleen als render.

Bolt Graphics had op zijn stand op iedere vraag een antwoord, maar toch ontwikkelden zich tijdens het gesprek dat ik met ze had de nodige twijfels. Op de stand was een 'live demo' te zien, maar die bleek op verder ongespecificeerde fpga's te draaien. De Zeus-gpu zelf bestaat nog niet, al zouden de eerste testchips spoedig moeten arriveren. Ook bleken de aangehaalde benchmarks puur theoretisch te zijn op basis van berekeningen en softwaresimulaties.

Tijdens wat onderzoek achteraf vielen me een aantal dingen op. Het bedrijf bestaat pas vijf jaar, maar kondigde twee jaar geleden al eens een gpu aan die nooit op de markt is gekomen. De oprichter van het bedrijf, die volgens zijn LinkedIn al twaalf jaar bij het bedrijf werkt, heeft hiervoor serverracks gebouwd en datacenters ontworpen. Wat hem kwalificeert om gpu-architecturen te ontwerpen, is niet duidelijk.

Ik laat mijn ongelijk graag bewijzen, want een nieuwe speler op de gpu-markt zou fantastisch zijn. Voorlopig zou ik de grote claims van Bolt Graphics echter met een enorme schep zout nemen, in elk geval totdat het bedrijf werkende, fysieke chips kan laten zien. Volgens een medewerker zou dat moment later dit jaar moeten gaan aanbreken.

De stand van Bolt Graphics in de centrale hal van de CES. Naast deze stand had het bedrijf ook een ruimte in The Venetian, een van de hotels waar veel bedrijven meetings organiseren tijdens de beurs.
De stand van Bolt Graphics in de centrale hal van de CES

Door Tomas Hochstenbach

Redacteur

10-01-2026 • 07:30

176

Reacties (176)

Sorteer op:

Weergave:

Dit is zo misleidend.
Als het al klopt, dan zitten ze bewust deze GPU te vergelijken met een GPU die in een heel ander segment zit, met heel andere capaciteiten. Dedicated gaming en GPGPU's, doen heel weinig met FP64. Dat is double precision. Dit wordt (vrijwel) niet gebruikt in videogames. Videogames hebben dit niveau aan precisie namelijk helemaal niet nodig. Die werken met FP32 en ook steeds meer met FP16, dus halve precision om het renderen verder te versnellen.

Bij een RTX5090 gaat FP64 ook maar op 1/64ste van de snelheid van FP32. Waar de RTX5090 theoretisch dus over de 100TLOPS zit voor FP32, is het iets meer dan 1,6TLOPS voor FP64.
Zie: https://www.techpowerup.com/gpu-specs/geforce-rtx-5090.c4216

FP64 is veel meer in gebruik bij dedicated HPC chips zoals H200. En die doet FP64 op 1/2 snelheid van FP32. Dit komt omdat deze GPU, heel andere ALU's (de rekeneenheden) heeft die wel in staat zijn om deze precisie, op zulke snelheden te doen. H200 zit net over de 30TLFOPS en is dus veel, veel sneller dan deze geclaimde GPU.
Zie: https://www.techpowerup.com/gpu-specs/h200-nvl.c4254

Komt ook nog eens bij dat Nvidia eigenlijk niet de beste is in FP64. AMD is hier al een tijdje echt beter in met hun HPC hardware. AMD heeft alleen het probleem dat ze een bijbehorend software ecosysteem missen om die rekenkracht goed te ontsluiten. MI300 uit 2023, deed namelijk al meer dan 45TLFOPS FP64.
Zie: https://www.techpowerup.com/gpu-specs/radeon-instinct-mi300.c4019

Als deze claims dus al kloppen, dan is er nog het probleem dat ze niks demonstreren.
Ik krijg er het idee bij dat ze vooral aan het roepen zijn, in de hoop dat ze flink wat geld kunnen ophalen bij investeerders die hier weinig van snappen. En dan zien of ze daadwerkelijk iets kunnen produceren en verkopen. Dan komen nog de drivers, waarbij we ook al gezien hebben dat die niet zo makkelijk zijn. Kijk maar naar Intel waar ze jaren bezig zijn geweest om het enigszins werkende te krijgen.
100% dit.

Ik vraag me wel hardop af: is er een andere manier om in deze tijden nog iets van de grond te krijgen in deze markt ?

Dit stukje van de industrie is vrij complex en het is fijn dat mensen zoals jij de techniek goed kunnen invullen. In de softwaremarkt, die iets toegankelijker is, voor minder technische mensen om te begrijpen heeft de politiek ingegrepen door bepaalde fusies, bijvoorbeeld, wel of niet toe te staan. Een open systeem af te dwingen, of in ieder geval rekening te houden met de eindgebruiker (privacy en dat soort onzin, geintje).

Mijn conclusie: deze markt zit op slot, er zijn twee spelers en zoals Tomas aangeeft - heel terecht - een nieuwe speler zou ontzetten welkom zijn. Maar hoe?
Ja, in China lukt het wel. Er zijn meerdere GPU fabrikanten die in de markt hebben betreden. Lisuan is er eentje van.

[Reactie gewijzigd door polli_ op 10 januari 2026 14:04]

Totdat je je even erin verdiept. Wikipedia:
In 2024, Lisuan Tech came close to bankruptcy.
En toen werd er ineens door semi overheidsbedrijven dik in hun geïnvesteerd. Ja dan kan het wel. En dan het resultaat: een grafische kaart die nauwelijks met mid-range kaarten mee kan komen. Want het grote probleem zit bij de driver ontwikkeling, drivers die per spel geoptimaliseerd moeten worden.

Een Westers bedrijf was allang failliet gegaan. Of zou binnenkort failliet gaan want de kaarten presteren gewoon niet zo goed.

Maar niet in China, de overheid wil eigen grafische kaarten zien dus wordt er maar geld in gepompt.

https://www.digitimes.com/news/a20250901VL206/gpu-startup-shanghai-revenue.html
Tja, heel anders dus als in USA waar de tech bedrijven geld drukken en in elkaar investieren in een wilde draaikolk. Je hebt investeringen nodig om in deze markt te komen. China probeert dat altijd doelgericht en gecoördineerd en heeft daar al menige markt mee veroverd. En nee, dat is maar gedeeltelijk geïmiteerd, veel wordt daar in innovatie gestopt wat in het westerse systeem aan de aandeelhouders wordt uitgekeerd. In wat voor auto rijdt je in 10 jaar tijd? Dat zal voor veel mensen een Chinese auto zijn, want hun innovatie haalt de Europese en Amerikaanse producenten links en rechts in.
Op dit moment worden er helemaal niet zoveel nieuwe auto's verkocht. Er wordt massaal tweedehands auto's geimporteerd. De tweedehandsverkopen lagen op 2.124.429.

En wat willen de Nederlanders dan hebben:
#1 Volkswagen Golf: Al jaren de onbetwiste koploper, ongeacht generatie, bekend om zijn betrouwbaarheid en brede inzetbaarheid.

#2 Volkswagen Polo: Vrijwel net zo populair, vaak in de buurt van de Golf qua verkoopcijfers.

#3 Opel Corsa: Sluit vaak de top drie af en is een populaire keuze in het compacte segment.

#4 Ford Fiesta

#5 Renault Clio: Deze modellen zijn ook erg gewild en behoren tot de top 10.
Nieuwe auto's werden er maar 388.024 nieuwe auto's verkocht. En wat is die top 5?
KIA met 37.837 stuks.

Volkswagen met 32.160 stuks

Skoda met 27.9747 stuks

Toyota met 27.7997 stuks

Renault met 25.200 stuks
Gek zeg, geen enkele innovatieve Chinese auto in de top vijf?

Chinese auto's verkopen helemaal niet zo goed. De best verkochte Chinese auto vind je terug op plek 22, BYD met in totaal 4.370 verkochte auto's.

Dus je conclusie is nergens op gebaseerd. De verkopen van Chinese auto's zijn helemaal niet goed, ondanks alle subsidie van de Chinese overheid en dat echt niet veranderen.
De chinese auto’s gaan heel hard, ik werk in die branche en over een paar jaar gaat het echt een probleem worden.

Ze zijn goedkoper, hebben wel werkende infotainment, en prima techniek

Issue is dat europese fabrikanten er 7 jaar over doen om van tekentafel naar productie te gaan en de chinezen 18 maanden.

En de europese fabrikanten willen niet de 12 extra euro uitgeven aan een goede chip (nog steeds niet…)

Kortom de europese spullen komen met een 6-7 jaar oude budget chip op de markt voor meer geld.

En de software qualiteit laat ook te wensen over, en laten beide die dingen nu juist belangrijker worden.

De europese fabrikanten waren koning in ICE motoren maar dat doet er straks gewoon niet meer toe, men moet hard aan de bak.

Bmw en mercedes hun nieuwe platform is iig wel veelbelovend, en VW heeft nu rivians platform onder licentie genomen, dus men heeft het eindelijk door.
Als je in die branche werkt, dan weet je ook dat Chinese auto's helemaal niet goed verkopen. Dat ze nauwelijks een dealer netwerk hebben. Dat de importheffingen alleen maar oplopen. De enige reden dat BYD niet zo hard getroffen is dan Lynk & CO is dat ze de productie uit China hebben weggehaald en naar Thailand hebben verplaatst. Werkt totdat de EU ook Thailand een heffing oplegt.

Rivian is overigens een Amerikaans bedrijf. Waar dik in geïnvesteerd is door de Saudi Arabie. een land dat zeer hechte banden heeft met de VS. China heeft niets met rivian te maken.
Byd heeft tesla ingehaald als de grootste electrische auto verkoper ter wereld…
Ondertussen heeft BYD Tesla allang ingehaald.
Ingehaald in haar thuisland China, dat klopt helemaal. Daar verkopen ze rustig tegen de 5 miljoen auto's.

Maar niet in Europa. Hier verkopen ze helemaal niet zo goed, slechts 0,12 miljoen exemplaren in Europa.
En in Australië en Oost Azië. Overigens zijn ze in Europa een stuk groter, ze verkopen niet alleen personenauto's maar ook bussen en specialistische werkvoertuigen.
Ja dat is niet zo lastig. Het gaat erom waar je de auto's verkoopt en tegen welke prijs.
Mogelijk krijgt BYD het in de tweede helft van het jaar moeilijker. Autofabrikanten moeten hun jaarlijkse verkoopdoelstellingen proberen te halen zonder prijsverlagingen in China. BYD wil over het hele jaar wereldwijd 5,5 miljoen voertuigen verkopen, maar de autofabrikant heeft in de eerste helft dus net iets minder dan de helft van dat aantal verkocht.

Donderdag kwamen verkoopcijfers van auto's in de Europese Unie naar buiten. Daaruit bleek dat BYD in juli ruim drie keer zoveel nieuwe auto's in het landenblok heeft verkocht vergeleken met vorig jaar. Bijna 9.700 BYD's werden vorige maand op kenteken gezet in de EU, tegen ruim 3.100 een jaar eerder. Het marktaandeel groeide daarmee van 0,4 procent tot 1,1 procent.
En daar zit dus het probleem. In China kunnen ze onbeperkt auto's verkopen. Al staan ze ergens op een enorme parkeerplaats weg te roesten, het telt allemaal mee. Ze kunnen van die verkoopcijfers maken wat ze maar willen. Niemand kan het controleren.

Alleen in de EU zijn de verkoopcijfers extreem laag. Nog geen 10.000 auto's per maand. Dan lijkt het ineens wel geweldig, ze verkopen drie keer meer dan een jaar eerder maar dat zit hem in de importheffing truuk. Hun auto's komen vanuit Thailand naar de EU. Dus relatief lage heffing daar waar de andere Chinese fabrikanten een hele hoge heffing hebben gekregen. Maar hun grotere marktaandeel ging wel ten kostte van de andere Chinese auto's zoals Link & Co die nauwelijks meer verkopen door de hoge importheffing.

In absolute aantallen zijn de verkopen van Chinese auto's in de EU gewoon heel erg laag en totaal niet te vergelijken met die van de traditionele merken.
Tis goed, ze verkopen niet,
Meer dan tesla,
JAaa maar dan tellen we iets anders,

Ok maar globaal doen ze het goed, eupra is een kleine afzetmarkt tov de rest van de wereld met hoge import tarieven.

En zelfs dan nog verkoopt men dus, alsnog 10k das best knap dus.

Inmiddels rijdt de CEO van ford een Xiaomi SU7 als zijn daily driver, maar men denkt dat de auto’s slecht zijn,

Ze zijn goedkoper en kwalitatief hoogwaardig,
Mensen moeten eens wakker worden de tijd dat chinees spul goedkope rommel is is over.

Anyways dit ging over GPU’s niet auto’s
Dus laten we deze offtopic thread eens sluiten

[Reactie gewijzigd door freaq op 10 januari 2026 20:23]

De cijfers zijn oveduidelijk. BYD verkoopt 0,12 miljoen elektrische auto's per jaar in de EU.

De Europese markt voor elektrische auto's is na China zelf de grootste in de wereld. Gevolgd door de VS.

De cijfers uit 2024:

China 11.3M

United States 1.5M

Germany 570.4K

United Kingdom 550K

France 450.6K

Canada 252K

Belgium197K

Netherlands182K

Sweden157K

South Korea130.7K

Spain128K

Brazil125K

Italy118K

Norway113.5K

Australia112K

En dan zie je meteen het probleem. Zodra de eigen markt verzadigd is, kan BYD haar auto's niet meer kwijt. Want de rest van de wereld koopt ze niet.

Het topic ging inderdaad over GPU's. Maar die markt is vergelijkbaar met die van auto's, ze gaan proberen te produceren voor hun eigen markt. Ze exporteren nauwelijks GPU's en dat zal echt voorlopig niet veranderen.
Je deelt hier links van de population growth. Ik zie b.v. die 182K (verkopen?) van Nederland niet terug in de demografie cijfers over Nederland. Misschien dat ik er overheen kijk.
Ik denk eerlijk gezegd dat wanneer meer Nederlanders BYD-, MG- en vergelijkbare auto’s op de weg zien, de verkoop vanzelf zal toenemen. Zeker als er, zoals nu bij MG, een goed dekkend dealernetwerk beschikbaar is.

Volkswagen en andere merken hebben het vooral lastig doordat ze minder auto’s naar China exporteren. Alleen al in 2015 werden daar ongeveer 3,5 miljoen Volkswagens verkocht.

Bovendien bouwt BYD onder andere een fabriek in Turkije.

[Reactie gewijzigd door Is_ Y_ Serious? op 11 januari 2026 11:05]

De verkopen nemen niet vanzelf toe, de EU voerde import heffingen in om de verkoopcijfers af te remmen. Wat ook gelukt is, de prijzen zijn aardig gestegen. Mochten ze tin de toekomst och te groot worden, dan zullen er gewoon nog hogere heffingen volgen.

Europa zal haar auto markt altijd beschermen.
Bovendien bouwt BYD onder andere een fabriek in Turkije.
Dus zonder import heffing.
Dat klopt, op dit moment is er geen import heffing indien een auto in Turkije gemaakt wordt en daarom is BYD gestart met een fabriek in Turkije.

Echter er is geen enkele garantie dat de EU dat in de toekomst niet zou wijzigen indien de Europese auto industrie bedreigt zou worden door massaal in Turkije gebouwde EV's.

Uiteraard kan BYD ook gewoon een fabriek in de EU beginnen. Dat vind de EU geen enkel probleem, het werk en een deel van de toeleveringsketen vind dan in Europa plaats.
We worden zeker niet overspoeld met BYD auto's maar ze verkopen best redelijk en ze hebben zeker potentie. De toekomst zal het zeggen.
Vreemd dat je dit standpunt ondersteunt. Betekent dit dat Europese merken ondertussen hun prijzen rustig mogen verhogen? We belemmeren dus bewust concurrentie, niet omdat het slecht is voor de consument, maar omdat een ander het beter en goedkoper kan leveren — alleen omdat het Chinees is. Zo dwingen we consumenten om duurdere producten met een slechtere prijs-kwaliteitverhouding te kopen.

Het is niet voor niets dat Europese merken, inclusief Tesla, nu fors stunten met de prijzen van elektrische auto’s. Als Chinese (of andere) concurrenten straks worden geweerd en over enkele jaren elektrisch rijden de enige realistische optie is vanwege milieuzones, dan creëren we een markt zonder echte concurrentie. En dan zullen we ons massaal afvragen waarom elektrisch rijden ineens onbetaalbaar is geworden.

We zien dit patroon nu al bij de stikstofregeling: geen Europese verplichting, maar een nationale invulling die ervoor zorgt dat er nauwelijks gebouwd mag worden. Het gevolg? Een compleet vastgelopen woningmarkt, waarbij een koophuis voor de gemiddelde Nederlander is verworden tot een onbereikbare droom. Dit is exact wat er gebeurt wanneer beleid concurrentie en aanbod beperkt, terwijl de vraag blijft groeien.

[Reactie gewijzigd door bozk op 12 januari 2026 17:03]

De wereldproductie in zonnepanelen, inclusief die hier in europa, is in het verleden kapotgemaakt door staatsgesubsidieerde productie en dumping vanuit china. Nu maakt alleen china die dingen nog in belangrijke aantallen.

EU heeft geleerd en gaat dumping tegen. Niet gek toch?
Concurentie is goed, maar wel op gelijk speelveld.
Dumping aanpakken is logisch, een gelijk speelveld ook. Maar een markt afsluiten vóórdat Europese fabrikanten écht concurrerend zijn, beschermt geen industrie, het garandeert hogere prijzen.

Het zonnepanelenverhaal laat juist zien wat er misgaat: eerst eigen productie laten verdwijnen, daarna de markt dichtgooien en afhankelijk blijven. Dat risico herhalen we nu bij elektrische auto’s, terwijl elektrisch rijden via beleid feitelijk verplicht wordt.

Concurrentie reguleren is prima. Concurrentie uitschakelen terwijl consumenten geen alternatief hebben, niet. Dat betaalt uiteindelijk altijd de consument.
Heb je ook iets van een bron, waar je deze data vandaan hebt?

En BYD verkoopt EVs en heeft te maken met een flinke importheffing, waardoor het voor mensen hier duurder uitvalt. Ik weet niet of Toyota, Kia, e.d. ook hetzelfde importtarief genieten.
Inderdaad, er is een flinke import heffing ingevoerd op EV's. BYD omzeilt die door de auto's in Thailand te landen maken waardoor die import heffing nog enigszins beperkt is. Link & Co is wel vol getroffen en heeft haar verkopen in de EU in elkaar zien storten.

Toyota & Kia hebben niet te maken met de speciale heffingen op Chinese EV's.

Bron data: https://worldpopulationreview.com/country-rankings/ev-sales-by-country

[Reactie gewijzigd door wiseger op 11 januari 2026 13:59]

Chinese merken groeien versneld in Europa. In de eerste helft van 2025 nam de gezamenlijke verkoop van Chinese automerken met bijna 91% toe tot ongeveer 347.000 stuks (5,1 % marktaandeel). De groei kwam vooral door merken zoals BYD, Jaecoo, Omoda, Leapmotor en XPeng.

Daarnaast zijn Chinese EV-merken (zoals BYD) in sommige maanden de dominante geregistreerde EV-merken geweest ten opzichte van Tesla in bepaalde landen.

🇳🇱 Nederland
  • XPeng: 1.402 volledig elektrische voertuigen in 2025 (G6, G9, P7).
  • BYD, Changan en andere Chinese merken actief maar nog beperkte concrete NL-aantallen beschikbaar.
🇪🇺 Europa
  • Chinese merken groeien sterk in Europa met meerdere modellen van BYD, XPeng, Leapmotor, Jaecoo/Omoda, GAC (Aion) enz.
  • BYD behaalt in sommige maanden meer BEV-verkopen dan Tesla.
Als je gaat goochelen met percentages, dan is een hele kleinmarkt aandeel ineens hard gegroeid als het wat groter wordt. Totdat je bedenkt dat een marktaandeel van 5,1 procent echt heel weinig is. 94,9 procent van de auto's die in Europa verkocht worden, zijn niet Chinees.

Maar kijk je gewoon naar de absolute cijfers, dan zie je een heel ander beeld. Er worden nauwelijks Chinese auto's verkocht in Europa.

BYD haalt inderdaad in haar thuisland veel meer verkopen dan Tesla. Daar verkopen ze heel veel auto's, meer dan 5 miljoen. Maar niet in Europa. In Europa verkochten ze slechts 0,12 miljoen auto's.
Meer dan goed genoeg. Om niet afhankelijk te zijn van Amerikaanse technologie. De afzetmarkt in China is gigantisch.
Afzetmarkt van wat? Grafische kaarten om spelletjes mee te spelen? Dat is een markt die NVidia allang links laat liggen, die hebben hun kaarten op de AI race gezet.

En daarin gaat het niet alleen om performance, waar NVidia overigens behoorlijk sterk in is, maar om je platform. NVidia heeft CUDA, iets waarvan praktisch alle AI bedrijven gebruik van maken.
De afzetmarkt in China is gigantisch en gaat nog meer groeien:

According to data from the China Commercial Industry Research Institute, China's GPU market is expected to reach 107.3 billion yuan in 2024, up 32.96 percent year-on-year.

https://www.globaltimes.cn/page/202512/1350736.shtml

Ook op het gebied van AI chips komt er concurrentie vanuit China. Vooral uit de hoek van Huawei. Huawei is ook bezig om een eigen EUV machine te bouwen.
Tuurlijk, volgens China zal de Chinese GPU markt geweldig zijn.

Maar is dat niet de AI markt? Daar waar ze geen top notch NVidia chips meer kunnen krijgen? Die ze dan maar via de zwarte markt importeren, want voor AI training heeft men toch nog altijd CUDA nodig?

Heel leuk dat Huawai een eigen EUV machine wil bouwen. China heeft het al eerder geprobeerd, een ASML machine uit elkaar halen en dan alle onderdelen weer assembleren. Helaas, hij deed het niet meer. EUV is ontzettend complex en vereist specialisten. De kennis in Leuven en Veldhoven is in decennia opgebouwd.
Ik heb ook de recente video van Veritasium over ASML gezien. De Chinezen hebben een legertje hele slimme rakkers hoor, maar wat jij zegt over die specialisten en die decennia aan werk is bijna een understatement. ASML heeft hemel en aarde bewogen in een techniek waar niemand meer in geloofde, en het was ze bijna ook niet gelukt. Het enige voordeel dat China nu heeft, is dat ze weten dat het kan want ASML heeft het bewezen. Toen ASML ermee bezig was, wist niemand dat nog echt zeker.

Maar het zou me niet verbazen als de Chinezen uiteindelijk toch EUV weten te ontwikkelen. Dat kan wel even duren. Maar als China écht wil, kunnen zij ineens heel veel gedaan krijgen. En ze hebben echt wel slimme mensen. Vooral zo'n groot land moet alleen al statistisch gezien best wat mensen met potentie bevatten. Maar het kan wel even duren voordat ze het lukt. Tegen die tijd hebben wij misschien toch wat grijze haren erbij.
Het probleem is niet of ze het kunnen ontwikkelen in de toekomst, het probleem is kunnen ze het de komende jaren ontwikkelen zonder het Intellectueel Property (IP) van CRADA te schenden?

Op dit moment gebruiken ze onderdelen van ASML om zo de eerste stappen te zetten. Maar ze kunnen die onderdelen niet zomaar gaan namaken, ze zullen dan wel over het IP moeten beschikken.
In China hebben ze al tegen Nvidia gezegd dat ze de kaarten niet meer hoeven en dat er in de lokale bedrijven moet worden geinvesteerd worden..

https://www.theinformation.com/articles/china-tells-tech-companies-halt-nvidia-h200-chip-orders

Wat betreft de Huawei EUV machine er wordt al een prototype getest:

nieuws: Reuters: China test eigen euv-machine, maakt mogelijk in 2028 werkende chips
Precies, de hoeven geen Nvidia chips meer maar ze hebben geen goede tegenhanger voor CUDA, CANN wordt alleen beperkt in China gebruikt. Elke AI student, elke AI wetenschapper gebruikt CUDA. Dat is wereldwijd de standaard.

Dus is het maar de vraag of China wereldwijd mee kan in het AI geweld.

Zoals ik al zei, EUV is heel complex. Op dit moment kunnen zo ook in het lab geen chips produceren. Het is maar de vraag of ze in 2028 kunnen halen. Het artikel stelt dat 2030 realistischer is. En dan zit je nog met de stap naar massa productie, de yields moeten zodanig goed zijn dat het überhaupt levensvatbaar is.

Het artikel waarna je linkt stelt ook dat ze ASML onderdelen gebruiken, die door voormalig ASML engineers geassembleerd zijn. Het is maar de vraag of ze daarmee geen patenten van ASML schenden en dus überhaupt chips die op die manier geproduceerd zijn, kunnen verkopen.
Vanuit het perspectief van China maakt dat allemaal niet uit het einddoel is om onafhankelijk te worden van Amerikaanse technologieën. Denk dat op dit moment niet van belang is om high end chips te exporteren. Zoals dat nu al gebeurd met de eigen AI-chips. Ik verwacht weldegelijk dat ze op korte termijn al geavanceerde chips kunnen produceren middels EUV. Er wordt immers al meer dan 20 jaar onderzoek gedaan naar EUV op universiteiten in China en er zijn al meerdere patenten vrijgegeven op alle gebieden binnen het EUV vakgebied.
To address the challenge of EUV lithography, researchers at Lawrence Livermore National Laboratory, Lawrence Berkeley National Laboratory, and Sandia National Laboratories were funded in the 1990s to perform basic research into the technical obstacles. The results of this successful effort were disseminated via a public/private partnership Cooperative R&D Agreement (CRADA).[4] The CRADA consisted of a consortium of private companies and the Labs, manifested as an entity called the Extreme Ultraviolet Limited Liability Company (EUV LLC).[6] Meanwhile back in Japan, EUV technology development was pursued in the 1990s through the ASET (Association of Super-Advanced Electronics Technologies) and Extreme Ultraviolet Lithography Development Association (EUVA) programs.[4]

Intel, Canon, and Nikon (leaders in the field at the time), as well as the Dutch company ASML and Silicon Valley Group (SVG) all sought licensing.[7] In 2001, SVG was acquired by ASML, helping ASML become the leading benefactor of the critical technology.[8]

By 2018, ASML succeeded in deploying the intellectual property from the EUV-LLC after several decades of developmental research, with incorporation of European-funded EUCLIDES (Extreme UV Concept Lithography Development System) and long-standing partner German optics manufacturer ZEISS and synchrotron light source supplier Oxford Instruments. This led MIT Technology Review to name it "the machine that saved Moore's law".[9] Their first prototype in 2006 produced one wafer in 23 hours. As of 2022, a scanner produces up to 200 wafers per hour. The scanner uses Zeiss optics, which that company calls "the most precise mirrors in the world", produced by locating imperfections and then knocking off individual molecules with techniques such as ion beam figuring.[10]

This made the once small company ASML the world leader in the production of scanners and monopolist in this cutting-edge technology and resulted in a record turnover of 27.4 billion euros in 2021, dwarfing their competitors Canon and Nikon, who were denied IP access. Because it is such a key technology for development in many fields, the United States licenser pressured Dutch authorities to not sell these machines to China.
Canon en Nikon konden niet meekomen omdat ze simpelweg niet om de patenten heen kunnen. Patenten die de Amerikaanse overheid gezamenlijk met de laboratoria bezit. De VS beschermen hun patenten.

Dus heeft China een probleem als ze die patenten schenden, de VS zal dan niet toestaan dat bedrijven chips gebruiken die door China geproduceerd zijn via EUV.
Welke patenten? ASML maakt gebruik van een totaal andere soort EUV techniek met lichtsoort, namelijk laser produced plasma. In China wordt gewerkt aan EUV machine op van laser induced discharge plasma. In Japan werd door Canon en Nikon gewerkt aan een LDP machine en ze maakte deel uit van een werkgroep bestuurd door verschillende grote tech bedrijven met patenten van core EUV technologie uit de VS en Europa.
Bedoel je niet PyTorch of Keras? Cuda zelf is nogal lowlevel. Daarnaast heb je b.v. ook amd rocm wat open source is en pytorch en keras ondersteunen ook rocm.
Ja, in China lukt het wel
Omdat het investeringsklimaat beter is, omdat kritisch en innovatief denken beter gestimuleerd wordt, of omdat ze links en rechts intellectueel eigendom jatten?
Gelukkig doen wij 'westerlingen' dat nooit :+
Wij westerlingen krijgen een behoorlijke rechtzaak aan onze broek als we patenten of copyright schenden. Probeer zo'n rechtzaak maar eens te winnen tegen een Chinese partij die alleen in China verkoopt. En daarmee is vermoedelijk meteen de vraag beantwoord waarom de door @polli_ genoemde partijen niet buiten China verkopen. Nogal makkelijk om concurrentie te creëeren als die concurrentie toestemming heeft om kopieën van het origineel te maken.

Bovenstaande is slechts speculatie overigens, ik ben niet gehinderd door enige kennis van zaken.
Er zitten ook limieten aan patenten, naast dat het tijdelijk is, zijn er vaak meerdere wegen naar Rome. DWZ, dat een patent vaak een gerichte oplossing of techniek beschrijft, wat niet wegneemt dat je soms met een aanpassing buiten de scope van de patent valt. Iets waar amerikanen soms wel handig mee zijn.

Het is zeker waar dat we veel blauwdrukken met china hebben gedeeld en ze daar nu voordeel aan hebben - als je dat niet hebt zien aankomen, terwijl je je blauwdruk naar china hebt gemaild - dan is dat wel een beetje bleu.

Zo ver als de geschiedenis gaat, nemen wij dingen van elkaar over. Dat is ook iets menselijks. De uitspraak Beter goed gejat dan slecht verzonnen, is eeuwenoud.
Het is zeker waar dat we veel blauwdrukken met china hebben gedeeld en ze daar nu voordeel aan hebben - als je dat niet hebt zien aankomen, terwijl je je blauwdruk naar china hebt gemaild - dan is dat wel een beetje bleu.
Ik heb ook wel eens aan een hoge manager gevraagd waarom we dat als bedrijf deden. Dat was nu eenmaal wat de Chinese staat wilde, en als we geen projecten in China hadden dan liepen we teveel geld mis. Kortetermijnwinst wint het bij beursgenoteerde bedrijven helaas van strategisch verstandige beslissingen.

Overigens zijn consumenten net zo makkelijk te schaken. Ik zou zelf gebruik durven te maken van een apparaat vol met sensoren en met een internetverbinding, waarvan de soft- en hardware in China zijn gemaakt, maar je ziet hoe goed Chinese auto's het doen in Nederland, want tientallen procenten goedkoper dan Europese auto's. Ik vermoed dat het rijdende spionageapparatuur is, maar wat weet ik er nou van.
Het is helaas de realiteit ja. Er zit heel veel geld in China, en als het niet doet - tel je niet meer mee.
Daarbij tel ik ook op dat China een enorme inhaalslag gemaakt heeft. Ik rijd nu in een nieuwe Opel, en als ik zie wat ik in een chinese auto had kunnen krijgen voor dezelfde prijs of minder, dan is dat alles behalve een verbrandingsmotor. Dus ik geef de consument nog gelijk ook.
Hopelijk leren we ervan in de toekomst en gaan ze hier ook weer wat meer aandacht geven aan details.
Dus ik geef de consument nog gelijk ook.
Ik snap het wel, maar gelijk geven doe ik ze niet. Als een deal te aantrekkelijk is om waar te zijn, dan ben je aan jezelf en je omgeving verplicht je af te vragen of het wel klopt. Of een Chinese auto nou goedkoper is omdat de regering bewust de werkende bevolking arm houd (kunstmatige devaluatie van de munt), door Oeigoeren uit te buiten, om de Europese concurrentie uit te schakelen, door R&D te jatten of om gebruikers te bespioneren; ik laat zo'n auto graag in de showroom staan.
Je moet écht niet onderschatten hoe innoverend China kan zijn als ze écht wat willen. Ik heb meer dan eens gezien dat ze als eerste met een bepaald concept aan kwamen, en dat het westen dit concept juist jatte.

Het China dat alleen maar slechte producten kon maken en dingen kan jatten bestaat allang niet meer. Het is waar dat nog steeds niet alles kwalitatief hoogwaardig is, maar dit is tegenwoordig vooral door klanten die vooral goedkoop willen uitkomen. Als je als klant prijs boven kwaliteit prioriteert is dat ook wat je krijgt. Vraag je juist om kwaliteit, dan is China net zo goed in staat om dat te produceren.

Qua investeringsklimaat is het daar vooral... anders. Ze hebben er vooral staatskapitalisme. Het is geen vrije markt zoals wij die kennen. Al hebben ze wel beursgenoteerde bedrijven. Maar de overheid heeft in het bedrijfsleven wel een hele dikke vinger in de pap. Maar goed, die kan ook investeren in een bepaald concept. En in een systeem waarin de overheid zoveel macht heeft als in China, kan die overheid ook veel investeren. Ze stampen daar soms dingen uit de grond met een snelheid waar je u tegen zegt.

Ik ben zeker geen fan van China. Ik vind het vooral een zeer fascistisch land. Maar laten we wel even naar de feiten kijken, China heeft bewezen om zeer competent te kunnen zijn als ze eenmaal echt iets willen. Dat zijn ze niet altijd, maar soms zeker wel.
China heeft bewezen om zeer competent te kunnen zijn als ze eenmaal echt iets willen
Het is allemaal waar wat je zegt. Natuurlijk kunnen ze kwaliteit maken. Daarbij hebben ze meer focus, geld én mensen om iets te ontwikkelen. Als je bijvoorbeeld kijken naar het aantal wetenschappelijke nobelprijzen per inwoner dan is dat om te janken (ik pak maar een metric, natuurlijk is er veel op af te dingen en nuanceren). Maar de schaal waarop intellectueel eigendom wordt geschonden is ook onvoorstelbaar. Zoals ik elders al stel, als die concurrerende grafische kaarten goed waren zonder patenten en copyrights te schenden, dan zouden ze ook buiten China verkocht worden.
Beetje van dit, beetje van dat
In principe wel, Matrox bestaat ook nog en ik werk zelf met een andere die op basis van S3 Virge chipsets programmeerbare framebuffers verkoopt. Daarnaast is Intel ook ingesprongen en op ARM heb je ook een keuze.

Het probleem is dat de “gamer enthusiast markt” een relatief kleine markt is en dat is niet precies een markt waar een paar euro meer een “probleem” is. De reden dat NVIDIA goedkope chips heeft is omdat ze dezelfde chip met grotere pipelines voor duizenden aan datacenters verkopen. Zowel AMD en Intel hebben tech van hun iGPU op de CPU dat relatief goed schaalt.

De gamer markt is de overschotjes van al de grotere markten, en op datacenter niveau is NVIDIA de leider omdat elke andere fabrikant vergeet dat de hele business industrie op support draait, niet op schijnende technologie.
volgens mij roepen deze mensen maar iets maar sneller dan een 5090 er wil ik niet snappen.

Als ze nog geen werkend model hebben zijn het looze woorden die alleen de teory kan bevestigen.

Enne niks is praktijk gericht.het roept mijn twijfels op
Omdat de claims misleidend zijn, is het juist treffend om een vergelijking met een Nvidia kaart te maken.

Nvidia is de koning van misleidende claims, (multi) frame generation verhoogt in de werkelijkheid bijvoorbeeld de input latency per frame, maar dàt zul je Nvidia nergens horen zeggen. En dan natuurlijk de claims dat een gegenereerde frame gelijkwaardig zou zijn aan een gerenderde frame.. (en alle claims over hoe je FPS 2X, 4X, zo hoog is etc).

Niet dat ik graag dit soort onzin zie, maar ik vind het wel grappig dat iemand (net zoals Nvidia) de boel zo loopt te misleiden. De claims kunnen overigens prima kloppen, natuurlijk, maar dat maakt ze niet minder misleidend.
Maar kijk even naar het plaatje van bolt zelf.

Daar staat een nieuwe GPU voor hpc.

Gaming wordt pas als laatste genoemd en is dus geen core business dit is echt een AI datacenter GPU tegenhanger.

Dat je er ook mee kan gamen swa dat geloof ik wel.
Er staat op de foto ook for HPC, Rendering & Gaming. Dus deze GPU wordt ook gewoon gemarket voor de gaming markt. Dan mag je je best vergelijken met het best beschikbare. Echter is het altijd op CES een biased situatie wat vergeleken wordt. Je zet immers altijd je beste specs neer en niet de delen die minder goed zijn. Maar wie weet. Laat een reviewer deze unit maar een keer testen.
Yep, ook als een game engine met double precision werkt is dit meestal alleen op de CPU. Alle coordinaten worden dan voor het renderen geconverteerd naar relatief aan de camera, en dan zijn dingen al te ver weg (of te klein) om tegen de limieten van 32 bit coordinaten aan te lopen.
Heel dubieus verhaal.

FP64 is veel te nauwkeurig en daardoor te traag voor in games. Dat wordt alleen gebruikt bij compute-berekeningen die een zeer hoge nauwkeurigheid hebben.

Nvidia heeft een verhouding van 64 op 1, waarbij een gpu dus 64 fp32-berekeningen kan maken in de tijd van 1 enkele fp64-berekening. En die verhouding is alleen maar opgelopen de laatste tig jaar, zodat de kaarten niet voor professioneel gebruik kan worden ingezet, daar moet je een veel duurdere kaart voor kopen.

Dus sowieso wordt een 5090 vergeleken op een onderdeel waar de kaart extreem slecht in is en het is de zeer grote vraag of het überhaupt iets doet voor gaming-performance.

[Reactie gewijzigd door White Feather op 10 januari 2026 10:35]

Nouja niet de hele wereld draait om gamen natuurlijk. Als deze club een goedkope en energiezuinige kaart op de markt weet te zetten met hogere fp64 throughput dan de concurrentie als USP, kan dat best interessant zijn voor bepaalde toepassingen. Alles valt of staat dan wel met de software support.
Ze vergelijken met een desktop gamekaart en een Blackwell-chip, die vooral gemaakt is voor AI en FP32-werk.


Een Hopper-chip doet de verhouding FP64:FP32 als 1:2 en de top-chip H800 heeft dus een output qua FP2 die 16x zo hoog is als van een 5090.

Er is dus allang iets wat deze chip totaal uit het water blaast.


De enige USP’s die dan overblijven is de combi met Raytracing (wat een rare combi is omdat dat over beeld-aanpassingen gaat en deze chip daar dus juist niet sterk in is en eventueel het verbruik. Maar een H800 is 5x zo snel als de 1C-variant van deze chip en het is niet duidelijk of de 1C of 4C variant die 225 watt verbruikt.


En een Hopper verbruikt max 700 watt, dus als hier de 1C-variant 225 watt verbruikt, dan is dat keer 4 weer aardig in de buurt van Hopper.

Tevens is er totaal geen eco-systeem voor in tegenstelling tot Cuda dat er al meer dan 15 jaar is.

[Reactie gewijzigd door White Feather op 10 januari 2026 10:37]

Ik heb het gevoel dat we langs elkaar heen praten. Ik ben me er wel degelijk van bewust dat er datacenter GPUs bestaan met 1:2 ratios van FP64:FP32. Maar die worden kunstmatig duur gehouden door zowel NVidia en AMD.

Als ik de hopper H800 80GB (PCIe) die je noemt opzoek zie ik dat die 14592 CUDA cores heeft, waarmee die 51.22 TFLOPs FP32 haalt en 25.61 TFLOPs FP64 (1:2). Deze chip heeft 80 miljard transistors, en kost 20.000+ euro.

De RTX 5090 heeft 21760 CUDA cores, 104.8 FP32 FLOPs (dubbel zo veel!!), maar slechts 1.6 TFLOPs FP64 (1:64). Deze chip heeft 92 miljard transistors en kost 2000-3000 euro.

Hoe kan het dat een complexere chip (meer transistors) toch 10x goedkoper is? Marktsegmentatie waarschijnlijk. Een RTX 5090 met 1:2 multiplier zou de H800 volledig uit het water blazen, waarmee de H800 in 1 klap overbodig is (op de 80GB HBM memory na ofc). Dat kan NVidia niet hebben natuurlijk.

Maar er is niks wat een prosumer GPU met fatsoenlijke fp64 performance tegenhoudt, behalve de winstmarge van AMD en NVidia. De AMD Radeon Pro VII uit 2020 laat dit eigenlijk zien: die heeft 6.5 TFLOPs FP64 (4x zoveel als de RTX 5090..) en was te koop voor 1000-2000 euro. Tot op heden is dit een van de beste FP64 kaarten buiten de datacenter wereld, en er is geen opvolger :|

Dusja: er lijkt te weinig competitie op FP64 gebied te zijn en een nieuwe speler die zich specifiek hierop richt zou best heel interessant kunnen zijn. Maar dan moet zowel de prijs als de software ondersteuning goed zijn.
Als ik de hopper H800 80GB (PCIe) die je noemt opzoek zie ik dat die 14592 CUDA cores heeft, waarmee die 51.22 TFLOPs FP32 haalt en 25.61 TFLOPs FP64 (1:2). Deze chip heeft 80 miljard transistors, en kost 20.000+ euro.

De RTX 5090 heeft 21760 CUDA cores, 104.8 FP32 FLOPs (dubbel zo veel!!), maar slechts 1.6 TFLOPs FP64 (1:64). Deze chip heeft 92 miljard transistors en kost 2000-3000 euro.
Wat je hier zegt is dat een chip met ruwweg hetzelfde aantal transistors (80mj vs 92mj) 2x zoveel FP32 instructies kan doen. Waar zou die compute kracht vandaan moeten komen? Je kan niet met dezelfde hoeveelheid transistors opeens 2x het werk doen. Daar moet je iets voor opofferen.
Een RTX 5090 met 1:2 multiplier zou de H800 volledig uit het water blazen,
Maar die zou dan dus ook minder FP32 instructies kunnen doen omdat grote delen van het silicium/transistoren dedicated zouden zijn aan FP64. Daardoor zouden b.v. games de helft minder presteren.
Er is niet zoiets als een '1:2 multiplier'. Het gaat letterlijk om hoe je de rekeneenheden ontwerpt. Een FP32 rekeneenheid neemt gewoon minder ruimte in op de chip dan een FP64 rekeneenheid.
Ook het vervoeren van data door de chip heen neemt met FP32 veel minder ruimte in omdat er voor elk bitje letterlijk een appart lijntje moet lopen van functioneel blok naar functioneel blok. 2x zoveel bitjes in je berekeningen betekent 2x zulke brede paden in en rondom de rekeneenheden.
Het is dus allemaal een afweging en als je maximaal snel wil zijn in graphics dan is het zonde om veel van je chip toe te wijden aan FP64 berekeningen.

[Reactie gewijzigd door koelpasta op 10 januari 2026 14:38]

Het punt was natuurlijk dat ze het zélf vergelijken met een 5090. Waarbij ze ook noemen dat gaming kan, al dan niet precies in die context.

[Reactie gewijzigd door Argantonis op 10 januari 2026 09:44]

Ze hebben weinig anders om mee te vergelijken. Als ik zo zie dan is het vooral Tweakers en zo die de nadruk op gaming legt. De afbeelding bij het artikel van Bolt zelf noemt het pas op de derde plaats als optie. HPC, rendering en gaming staat er. Maar gaming is makkelijker om hype te maken. En met de tekorten een markt die mogelijk open is voor alternatieven.

Het is allemaal dubieus, maar niet onmogelijk. We gaan het wel zien als ze werkelijk iets leveren
Waarom zouden ze niet gewoon met de datacenter kaarten van NVIDIA vergelijken? Die kunnen FP64 een stuk sneller doen.
Omdat de c in ces voor consumer staat. Datacentrum is niet hun doelgroep zo te zien.
Maar de workloads waar ze het over hebben zijn allemaal DC workloads, dus het is wel verschrikkelijk gehalte vage marketing om dan naar de gaming kaart te kiezen.
Ik denk dat ze op verschillende plekken zich naar gelang het publiek presenteren, standaard marketing. Vaag of niet. Dat is hoe het werkt.
Als ze zich op gaming zouden richten, zouden ze FP32 getallen moeten vergelijken. Als ze zich op datacenters richten zouden ze zich met de Hx00 kaarten moeten vergelijken qua FP64.

Ze kiezen hier bewust een vergelijk wat nergens op slaat. Het is als een Opel vergelijken met een Ferrari op gebied van bagageruimte. Dat is niet waarom mensen een Ferrari kopen, net zoals mensen geen RTX 5090 kopen voor de FP64 prestaties. Beetje kansloos verhaal lijkt het.
Omdat de claim dan niet meer zo groot is.

Je gaat bij een consumenten auto ook niet zeggen is drie keer zo slecht als een Ferrari, maar is double zo snel als een corsa klinkt dat heel stuk beter.
Mag ik zeggen dat ik dit verdacht veel op DPG clickbait titels vind lijken ? Iets waar ik mij steeds vaker aan ben gaan storen ?

Helaas heb ik te weinig kennis om iets over deze kaart of de techniek ervan te zeggen, behalve dat het mij een erg sterk verhaal lijkt.
Dat mag je zeggen, maar ik weet niet wat dat uitmaakt in de discussie welk publiek ze aanspreken. Het is wel duidelijk dat ook Tweakers het zo geschreven heeft dat het zijn publiek het meeste trekt. Veel hier zijn gpu geil. En als je wil verdienen, ken je publiek/klant.

Clickbait werkt twee kanten op. Het publiek wil steeds meer hype omdat ze afgestompt zijn en de bedrijven voorzien er in om te verdienen en dus stompt het publiek verder af. Als we anders willen dan moet het publiek veranderen. De bedrijven doen waarmee ze verdienen.
Ik weet het, dan nog mag ik mij daar persoonlijk toch nog wel aan irriteren ? Het komt namelijk op heel veel sites voor waardoor je steeds vaker ergens op klikt en je je direct al weer afvraagt waarom ? en omdat de titel niet overeenkomt met wat er geschreven staat.

Ik vind dat het helemaal niet nodig zou moeten zijn op een website als Tweakers, precies om wat je zelf al zegt:
Veel hier zijn gpu geil.
En klikken er dan dus toch wel op. Dat maakt clickbait titels naar mijn mening dan ook overbodig. Of moet alles maar kunnen omdat het om geld en verdienen gaat ? Dat vind ik nou niet zo'n heel sterk argument.
Zeker, ik irriteer mij er ook regelmatig aan. Maar het is niet iets dat van bedrijven komt, je moet je mede burgers en op aankijken.

En ja, geld verdienen is nodig voor een bedrijf. Tweakers blijft niet vanzelf in de lucht. Mensen denken veel te vaak dat een website bijhouden gratis is. Maar er zit best veel werk achter en ook kosten. Dus als mensen spektakel vragen, krijgen ze spektakel, anders gaan de mensen naar waar ze dat wel krijgen.

De enige manier om daar verandering in te zien is door te stoppen met klikken, of artikelen heel negatief te beoordelen. 1 persoon maakt geen verschil, maar als we dat allemaal doen, verdwijnt of de site en komt er wat anders of de kwaliteit gaat om hoog en de clickbait omlaag.
Als het niet voor gaming is, dan kan je de professionele kaarten van nvidia kopen (vroeger quadro). Die hebben veel betere fp64 performance dan de gaming kaarten (2 cycles per instructie ipv 1 cycle bij fp32)


https://docs.nvidia.com/cuda/archive/9.1/cuda-c-programming-guide/index.html#arithmetic-instructions
Dat kan, maar die zijn stervensduur.
edit:
"Buitenproportioneel duur" is misschien beter verwoord.

[Reactie gewijzigd door TEMwave op 10 januari 2026 14:32]

Ja, en? Zolang deze gasten hun prijzen niet hebben aangekondigd, moet je appels met appels vergelijken.
Je moet ze ook niet in Nederland kopen, dan ben je oliedom. Ik zeg altijd maar, zeker voor zakelijke aankopen:
Ein Reich, Ein Europa, aber wir kaufen es in Poland :')
Welke webshop raad je aan?
Nvidia heeft een verhouding van 64 op 1, waarbij een gpu dus 64 fl32-berekeningen kan maken in de tijd van 1 enkele fp64-berekening.
Dat is een kunstmatige beperking en vooral bedoeld om duurdere compute kaarten te pushen.
Maar welke consument draait dan FP64 workloads? Games niet. AI niet. Video encoding niet.

Dit is een HPC kaart die vergeleken wordt met een consumenten kaart. Als NVIDIA dat zou doen, is dat idd om je te te upsellen. Nu doet een bedrijf dit als merk vs merk.

Erg misleidend en niet zoveel zeggend. And next.
Een prosumer die overdag numerieke simulaties voor zijn werk of studie doet en 's avonds op diezelfde PC lekker een spelletje wilt spelen. Is het hele punt van een PC ten opzichte van een console niet dat je er meer dan alleen gamen?
Ja en? Het heeft geen invloed op gamen, alleen maar op HPC-workloads. Maar dit bedrijf vergelijkt dus specifiek met de kaarten waar de FP64 laag is en niet een kaart waar deze verhouding de “normale” 1:2 is, zoals Hopper.


Het zijn dus heel bijzondere vergelijkingen die ze kiezen.
FP64 is helemaal niet te nauwkeurig, FP64 is (was?) te duur om (gaming) videokaarten mee te maken, en (ook) daarom maken games veelal gebruik van FP32.

Als we voor hetzelfde geld FP64 berekeningen zouden kunnen doen, denk je dan echt dat iemand zou klagen dat het "te accuraat" is?

Bij de PS2 heeft Sony allerlei gekke capriolen uitgehaald mbt FP berekeningen, dat zou ongetwijfeld niet zijn gebeurd als de hardware acceleratie voor FP64 net zo snel was en net zoveel zou kosten: Emulating PS2 Floating-Point Numbers: IEEE 754 Differences (Part 1)
Lol, eerst geef je aan dat FP64 helemaal niet te nauwkeurig is en daarna geef je aan dat de kosten te hoog zijn voor in videokaarten.

Je bevestigt dus precies:
FP64 is veel te nauwkeurig en daardoor te traag voor in games. Dat wordt alleen gebruikt bij compute-berekeningen die een zeer hoge nauwkeurigheid hebben.
Als we voor hetzelfde geld FP64 berekeningen zouden kunnen doen, denk je dan echt dat iemand zou klagen dat het "te accuraat" is?
Ga je nou de vraag stellen of mensen gratis bier willen? Dan kun je het antwoord toch wel zelf bedenken?

Er is gewoon nog steeds een te grote trade-off voor FP64 ten opzichte van de verbeteringen die het zou kunnen brengen voor games, als die er al überhaupt zijn of zouden kunnen zijn.

FP32 is genoeg om 8 of 10 bit per kleur te leveren. Zelfs op 10 bit is de stapgrootte al 10.000x groter dan een afrondingsverschil van FP32. Dus waarom zou je dan FP64 gebruiken? Het geeft dan nooit verschil.

En bij de PS2 heeft Sony in afwijking van de ieee754-norm een eigen format aangehouden omdat dat beter verwerkt kon worden in de rekenunits en het in de praktijk geen verschil gaf in de zichtbare output. Het was dus een stuk goedkoper te implementeren en sneller, met hetzelfde eindresultaat.

Zolang er geen duidelijke, zichtbare kwaliteitsvoordelen aan FP64 zitten en de chips veel groter, duurder en onzuiniger zullen zijn, zijn de nadelen dus vele malen groter dan de voordelen.
Zolang er geen duidelijke, zichtbare kwaliteitsvoordelen aan FP64 zitten en de chips veel groter, duurder en onzuiniger zullen zijn, zijn de nadelen dus vele malen groter dan de voordelen.
Absoluut, maar dat is iets heel anders dan dat FP64 te accuraat zou zijn.

En juist die afweging zie je overal: color depth bij opname, verwerking en opslag van afbeeldingen en video, audio bit depth bij opname, verwerking en opslag van audio. Color depth bij het tonen van afbeelding en video op monitoren (etc).

Niemand zegt: "48 bit afbeeldingen zijn te accuraat", "24-bit 8 kanaals 192kHz lossless audio opnames zijn te accuraat". Men klaagt over de hoeveelheid compute, opslagruimte, etc. die het kost.

Je bevestigt overigens mijn punt met jouw commentaar aangaande de PS2:
Het was dus een stuk goedkoper te implementeren en sneller, met hetzelfde eindresultaat.
Lees mijn originele comment:
FP64 is veel te nauwkeurig en daardoor te traag voor in games.
Je hele comments zijn dus overbodig.
FP64 is niet te traag voor games, omdat het te nauwkeurig is.

FP64 berekeningen zijn te traag, omdat videokaart bakkers te weinig modules op (consumenten) videokaarten plaatsen omdat videokaart bakkers dat onnodig vinden (lees: te "duur"). Of beter gezegd, omdat videokaart bakkers liever nog veel meer geld vragen voor "professionele" videokaarten.

Is ECC geheugen ook "te stabiel"?
1) de vergelijking met ECC slaat nergens op want dat heeft nog nut voor stabiliteit, FP64 heeft geen enkel nut voor gaming. Lees mijn uitleg.

2) aangezien FP64 geen nut heeft voor de normale consument omdat het voor gamen en ai werkelijk geen hol helpt, zullen gpu-bakkers dit ook niet grootschalig implementeren.

Het kost ruimte op de core, dus de chips worden groter en dus duurder en verbruiken ook nog eens meer. Terwijl de meerwaarde voor de normale consument gewoon nul is, zoals ik al had uitgelegd.

Nogal stompzinnige businesscase lijkt me.

Dat gpu-bakkers degene die wel FP64 wil gebruiken vervolgens een poot uitdraaien is een heel ander verhaal.

Dus de cirkel is weer rond: FP64 heeft geen nut voor gaming en de onnodige nauwkeurigheid heeft daar alleen maar nadelen.

En nu ben ik er klaar mee. Het enige wat jij wilt is je gelijk halen en daarvoor sleep je er van alles bij en negeer je iedere uitleg en nuancering. Hell, je begon al op basis van cherry-picking door expres de voorwaarde voor gaming te negeren.
FP64 berekeningen zijn te traag, omdat videokaart bakkers te weinig modules op (consumenten) videokaarten plaatsen
Dat is onzin. Elke chip heeft een transistorbudget en een ruimtebudget. Een 64 bit rekeneenheid heeft veel meer transistors nodig en de datapaden zijn twee keer breder. Dat betekent dat je per chip ongeveer 2x meer 32 bit rekeneenheden kunt planten dan 64 bit rekeneenheden.
Dynamisch bereik is dus niet gratis. Het vereist meer ruimte en vermogen per berekening. Wat je ervoor terugkrijgt is dan een hogere nauwkeurigheid maar zo'n chip is dus gewoon trager omdat je minder van die rekeneenheden kwijt kunt.
"24-bit 8 kanaals 192kHz lossless audio opnames zijn te accuraat"
Jawel hoor. 24 bits is over het algemeen vet overdreven te accuraat.
Ik ken geen enkele audio interface die werkelijk 24 bits kan vullen met zinnig signaal. Je hebt geluk als je 110dB haalt, wat ongeveer neerkomt op 18 bits.
En 192kHz is 4x meer dan een mens kan horen. Volslagen onzin die gedreven wordt door een industrie die grotere nummertjes verkoopt. Want 192 is groter dan 96 en 96 is groter dan 48...

Ik zou dus wel willen zien wat je met fp64 kunt renderen dat niet ook met fp32 kan maar dan sneller en goedkoper...
Met FP64 zou je z-depth buffer problemen (z-fighting) op kunnen lossen, doordat je meer precisie hebt (en je je z-buffer niet reverse en/of logaritmisch oid hoeft te gebruiken om beter om te gaan met objecten op de voorgrond, en terrein/natuur ver weg)? Ik geef maar een voorbeeld.

Game engines zitten vol met optimalisaties om om de limitaties van FP32 heen te werken.
Zijn er dan zoveel z-fighting problemen met fp32? Volgens mij heb je dan al een behoorlijk dynamisch bereik waar je vrijwel elke scene in kunt weergeven die je wil, mits je het allemaal een beetje redelijk houdt.
En dan nog, een verdubbeling naar fp64 is enorme overkill voor dit soort toepassingen. Het vergroot het dynamisch bereik met grofweg 2^32, wat redelijk absurd is als je bedenkt dat 32 bits al bijna alle gevallen dekt. Je krijgt dan voor elke kleinste stap die je had in 32 bits opeens 4.294.967.296 stapjes erbij. Dan zou je bij objecten die dicht bij de camera staan al bijna op moleculair nivo de ruimte moeten willen definieren., 8)7 :)
Depth buffer precisie is een onopgelost probleem, waar vooralsnog alleen work-arounds voor bestaan: Wikipedia: Z-fighting

De meest gebruikte work-around is een reverse z-buffer:
Due to the way they are encoded, floating-point numbers have much more precision when closer to 0. Here, reversing Z leads to more precision when storing the depth of very distant objects, hence greatly reducing Z-fighting.
Een andere work-around:
Another technique that is utilized to reduce or completely eliminate Z-fighting is switching to a logarithmic Z-buffer, reversing Z. This technique is seen in the game Grand Theft Auto V.
Wellicht werkt het beter met een (visueel) voorbeeld van het probleem: Visualizing Depth Precision - Nvidia Developer Zone.

[Reactie gewijzigd door drdelta op 11 januari 2026 18:49]

Depth buffer precisie is een onopgelost probleem
Ja, dat snap ik ook wel, maar de vraag die je jezelf moet stellen is of 32 bits niet afdoende is voor 99.99% van de gevallen.
Dat hele artikel dat je linkt noemt het dynamisch bereik niet en veel games reduceren de z buffer naar b.v. 16 bits vanwege de snelheid. En dan heb je best wel last van z fighting.

Ik zou zeggen, toon eerst eens aan dat 32 bits niet genoeg is voor een fatsoenlijk 3D beeld.

[Reactie gewijzigd door koelpasta op 12 januari 2026 16:04]

Het lijkt me an-sich geen onmogelijke uitdaging om een GPU te maken die x keer zo krachtig is als een 5090. De uitdaging is om er eentje te maken die x keer zo krachtig is én geen x² stroomverbruik heeft. :+
Staat in het artikel. Ze claimen max 225W nodig te hebben.
Minder dan de helft va het verbruik en anderhalf keer sneller in 2027?! Van een nieuwe speler?!

wat heeft hij gerookt?!

Dat kan je met een waterstaat pekelloods nemen. Gevuld net voor de winter.
Het concept van een RISC-V cpu met een gpu die afgestemd is op dat proces klinkt wel als iets dat sneller zou kunnen zijn dan de huidige prominente gpu-architectuur voor consumenten-gpu's.

Dat gezegd hebbende, ik heb absoluut geen verstand van gpu-architectuur in general en ik heb niet scherp wat RISC-V voor voordelen heeft boven x64 of bestaande ARM-constructies. Ik ben graag hoopvol dat dit een revolutie voor de gamingmarktt is.

Realistischer: dit bedrijf wordt, als ze echt zo'n ding kunnen ontwikkelen en dat ding haalt het niveau van een 5070 of zo, opgekocht door Nvidia en je hoort er niks meer van, AMD en het komt in consoles of Intel en die denken er de markt mee op zijn kop te kunnen zetten en halen 10% marktaandeel.
De kans is nihil dat ze ook maar in de buurt komen van een 3000‑series. Best case, misschien halen ze de performence van een 1000 series

Een Chinees bedrijf heeft recent zijn eigen GPU ontwikkeld (de Loongson 9A1000), en die biedt vergelijkbare performance met een AMD GPU uit 2017.
Alleen Chinese bedrijven hebben geen toegang tot de laatste chipnodes, omdat ze geen EUV machines mogen inkopen. Dus met die Chinezen en GPU's gaat het nooit wat worden.
Daar ga je de fout in door nooit te zeggen...
Natuurlijk weet ik heus wel dat ze verder zijn dan het Westen te kopiëren. Maar zolang ze geen EUV (of beter) hebben, komen ze niet verder dan waar ze nu zijn.
En zie je dat een startup met 0 euro omzet zoiets uberhault kopen?
Die kopen sowieso geen chiplithografische machines. Die vragen productieruimte bij bestaande bedrijven in China. Maar die mogen ook geen EUV machines kopen. Dus die startup kan niet gek veel kleiner dan 8 a 12nm ontwerpen maken.
10% marktaandeel zou in ieder geval Intels wereld op z’n kop zetten.
Ja, en dan 2,5x zo snel, moet het eerst nog zien :)
Ze claimen niets. Ze hebben op dit moment ook niets. De render toont 1 stroomverbinding die de kaart zou beperken tot 225W. Wat het uiteindelijke verbruik gaat zijn, zullen we moeten afwachten.
Ze zouden ook nog stroom kunnen trekken via de PCI poort toch? Of kan dat niet gelijk met bekabeld?
Als ik me niet vergis, levert een PCI-e poort van het moederbord tot 75W en elke 8-pin stekker 150W
Samen dus 225W.
Heb je 2x 8-pin stekkers, dan is dat 300W + 75W van het moederbord.
Ik zou het niet kunnen. Intel moet ook nog wat oefenen. AMD kan het misschien. Natuurlijk is het theoretisch mogelijk maar toch
Niemand kan wat hun claimen in de timeframe die ze claimen.

Helft stroom verbruik en 60% sneller.

Dan moet je ergens een factor 3 efficiëntie zien te vinden.
Nouja, zeg nooit niemand, want we worden toch vaak genoeg verrast doordat iemand out,-of-the-box gedacht had. Maar, de kans is klein dat het iemand in dit geval, voor 2027, lukt. Misschien dat intern de hardware dat wel zou kunnen, maar door de driver/software het beperkt wordt voor praktisch gebruik in bv games.
Kijk naar Intel's Alchemy GPU's, op papier waren ze snel(voor de originele tijd dat ze aangekondigd werden), maar bij release waren ze prut door de brakke drivers, maar jaar na release waren die drivers gigantisch verbeterd waardoor ze ineens toch best goede kaarten waren.
Alchemy is nooit maar dan ook echt nooit 50% sneller geweest met de helft van het vermogen.

Dan het toen actuele vlaggenschip va Nvidia. Die claims heeft Intel ook nooit gemaakt en het product was er nooit naar geprijsd.

de enige keer die ik kan bedenken dat dat gebeurde was met AMD in de tijden van de naamsverandering.

De 5870 was aanzienlijk sneller dan de toen nog verkochte gtx280 voor aanzienlijk minder stroom verbruik.

en ook toen kochten gamers nog massaal Nvidia.
Ik zou het niet eens gek vinden als dit klopt. NVIDIA en AMD blijven maar hetzelfde trucje herhalen en een beetje voortborduren op wat ze al hebben. Ze zitten gevangen in het innovators dilemma. Zijn ze daar ooit echt teruggegaan naar de tekentafel, of zijn ze gewoon blind geworden voor iets nieuws en gooien ze er gewoon meer stroom doorheen voor meer fps? De RTX 5090 is leuk voor de benchmarks, maar het is eigenlijk gewoon lomp geweld met een idioot stroomverbruik. Ter vergelijking: je brein doet veel complexere dingen op slechts 12 Watt. Het wordt tijd dat een startup zonder die oude ballast die reuzen eens laat zien dat het ook slim kan in plaats van alleen maar meer stroom ertegenaan te gooien.
Er werken echt bijzonder slimme mensen bij AMD and NVIDIA. En zeggen dat een 5090 werkt met lomp geweld doet niet vermoeden dat je bijzonder veel kennis hebt van de materie. Besef je dat een 5090 92,200 million transistors heeft?

En onze hersenen zijn inderdaad geweldig complex en bijzonder. Maar ook miljoenen malen trager dan moderen GPU/CPU in veel zaken. Tegenwoordig is er niet veel meer dat onze hersenen kunnen dat we niet met computers kunnen zoen.
Tot op zekere hoogte heeft hij wel een punt. Een GPU is vooral goed in het massief verwerken van data in parallel. Hoe meer transistoren, hoe meer je parallel kan verwerken. Natuurlijk hebben NVIDIA en AMD hardware optimalisaties ingebouwd, en special purpose hardware(ASICS), voor bepaalde taken, zoals optimalisaties voor verweking van textures, optimalisaties om calculaties voor vectoren efficiënter uit te voeren zoals culling en occlusion, physics berekeningen, ray- en pathtracing en AI, de bulk is echter massieve parelle verwerking(transformatie) van (vector)data, de basis voor framegeneratie voor 3D games.
Dus het feit dat Intel het ook niet kan, dat 3 grote, rijke bedrijven het niet kunnen maakt het ineens geloofwaardig dat een kleine startup, met 0 historische kennis, met geen ervaring, met amper kapitaal het wel zou kunnen? Dat iemand die niet vertrouwd is met chip design ineens een GPU kan bouwen die 6x zo efficient is, zelfs met gebruik van veel trager geheugen?

En als je al zulke spectaculaire tech in huis zou hebben, hoe komt het dan dat je op zo een klein standje op CES staat. Waarom heb je, zeker in deze AI gekke tijden waar iedereen hunkert naar dit soort kracht, geen grote investeerders, geen grote marketingafdeling die je kan helpen nog meer investeerders en talent aan te trekken?

Nee, ik denk dat we hier wel degelijk heel sceptisch mogen zijn. Al zou ik graag zien dat ik het hier verkeerd heb.
Ter vergelijking: je brein doet veel complexere dingen op slechts 12 Watt.
Beetje onzinvergelijking natuurlijk. Je brein kan ook niet 4k 3D beelden afleveren in 32 bits per kleurkanaal. Het is een compleet andere architectuur. Als je dit wil snappen moet je even de vierkantswortel van 73,41 in je gedachten uitrekenen en als je daarmee klaar bent hetzelfde door de GPU laten doen en dan kijken wie sneller is. :)
Woohooo, zijn de BitBoys terug van weggeweest??

Glaze3D for the win ;)

Wikipedia: Glaze3D
Later on ATI bought Bitboys for an extra research and development unit, so as of 2008 Bitboys was owned by AMD. In 2009, Bitboys was transferred to Qualcomm.
Die hebben hun doel bereikt. Deze mannen proberen hetzelfde. Geld ergens vandaan, maakt niet uit waar. Investering of overname.

Kaart zelf ziet er wel leuk uit, maar wel een groot "Huh" factor. Als je er goed bij stilstaat, is het gewoon een mini pc met ingebouwde gpu in de vorm van een insteekkaart.
Bitboys is later opgekocht door ATI (nu AMD) en nog later door Qualcomm. Dat betekent dat het niet allemaal
luchtkastelen zijn geweest.
Bedrijven kopen wel vaker luchtkastelen....., yammer
Niet helemaal, Ik / zij kunnen in theorie een heel mooi plaatje maken, de theorie er achter feilloos. Elk rekenmodel dat je er op loslaat, zal je vertellen dat die getallen kloppen. MAAR, totdat jij een product levert dat die claims waar kan maken, is het wat het is....pure theorie.

Glaze3D was een mooi idee, in theorie haalbaar, maar de technologie was er nog niet klaar voor, net zoals destijds de wereld nog niet klaar was voor 3Dglasses / virtual worlds, whatever the name was at the time.

Mooi om te zien dat de mensheid verder kijkt dan de beschikbare technologie....kijkt verder dan de grenzen....hoop dat dat zal blijven.

[Reactie gewijzigd door Pim0377 op 11 januari 2026 21:12]

Shit, je bent me net voor. Eerste waar ik aan moest denken. BitBoys Oy!
Klinkt echt als een scam maar mocht het niet zo zijn is een extra speler altijd goed nieuws. Ze vergelijken zich met de 5090, logisch dat is de snelste kaart nu maar mocht dit uitkomen zullen ze zich natuurlijk moeten meten met de 6xxx series en niet de 5090.

Er zit een cpu, gpu en ram geheugen op de concept kaart dus goedkoop gaat die niet worden.
Zelfs al zouden ze solide 5070 performance leveren is dat al een best prima iets toch?
Niet als ze beweren sneller te zijn dan een 5090
Alsnog leuk, alleen overdreven lijkt me. Dat gebeurt wel heel veel vaker in tech (5070=4090 is toch precies wat nvidia zei?)
Niet echt. Want dan moet je dus puur op prijs met Nvidia concurreren en als het prijsverschil niet groot genoeg is dan blijft iedereen gewoon de bekende merken kopen. En op prijs concurreren is heel moeilijk voor een nieuwkomer.
Maarja, ga er maar van uit dat Nvidia of AMD in 2027 niet een kaart heeft die niet al de performance heeft van een 5090 met een verbruik van 225w, laat staan heel veel krachtiger.
En ligt natuurlijk ook aan de prijs waarvoor ze die dan zouden verkopen, kan me sowieso niet voorstellen dat die bv voor de prijs van een 5060/9060 zal zijn want dan zouden ze zowel nvidia als amd volledig uit het veld slaan..
Maar ik geloof sowieso ook maar weinig van hun claims, als zelfs ook een speler als intel het niet lukt om bij nvidia en amd wat betreft prijs/performance bij te benen (en toch zijn die intel kaarten degelijke kaarten die je niet moet negeren).
Oog valt meteen op de RJ-45 BMC op de foto, ben benieuwd wat ze daarmee gaan doen.
Gezien dit ook een CPU heeft, zou het als standalone systeem kunnen draaien lees ik. De BMC connector zou dan denk ik voor remote management zijn.
Het lijkt mij te gaan over raytracen niet over rasterisation en dat maakt wel een verschil.

Ik ben in het algemeen niet zo cynisch over het idee dat er bedrijven zijn die HW kunnen ontwikkelen die in een specifiek iets kunnen uitblinken t.o.v. een all rounder van Nvidia. NPU’s zijn ook een ding, bij blockchain had je vroeger specifieke ASIC’s,…
Het rare is dat ze FP64 (wat juist voor HPC geschikt is en niet voor gaming of iets met beeld) èn pathtracing (wat juist over beeldbewerking gaat) samenvoegen op 1 chip.

En de vergelijkingen die ze trekken zijn ook zeer dubieus, zoals HPC-workload op een 5090?

En beweren dat je er gemakkelijk op kunt gamen met DirectX en Vulkan?

Dan moeten ze hun FP64 om gaan zetten in FP32 en stel dat ze daar de volledige 2x performance uit halen. Dan zijn ze met hun 3x zo snel als een 5090 nog vele malen trager dan een 5090 op FP32. Die doet namelijk 64x FP32 voor iedere FP64. Dus 3x zo snel x2= 6 vs de 64x performance van de 5090. Dat is dus 6:64, dus meer dan 10x trager in FP32. Dat is nog niet eens een 5050.

Ze hebben het ook totaal niet over shader-units, texture-units of raster-units, de units die zich daadwerkelijk met het beeld bezighouden.
Het lijkt mij te gaan over raytracen niet over rasterisation en dat maakt wel een verschil.
Je hebt niet zoveel aan FP64 voor raytracen.
Persoonlijk zou ik dat eerder van de Chinezen verwachten als ze zoiets zouden uitbrengen, maar een nieuwe speler op de markt is nooit niet slecht voor de consument.
Ian Cuttess van Anandtech/Techtechpotato heeft hier een half jaar geleden naar gekeken: YouTube: Path Tracing Done Right? A Deep Dive into Bolt Graphics
En toen waren ze ook in blijde verwachting van de eerste echte chips... Of hun designs zijn niet klaar voor (test)productie. Of ze houden mensen aan het lijntje.
Is een typische strategie waar men een idee tracht te verkopen aan een koper die dan heel het bedrijf zal opkopen om er iets met te doen, maar ik denk dat iedereen dit al lang doorheeft.

Synthetische benchmarks zijn in het algemeen al vrij useless, laat staan theoretische benchmarks.

Om te kunnen reageren moet je ingelogd zijn