Door Willem de Moor

Redacteur

Nvidia's opening keynote op Computex

AI, robots en digital twins, maar weinig gaming

30-05-2023 • 06:01

36

Multipage-opmaak

Eindelijk weer

Aan Nvidia viel dit jaar de eer de Computex met zijn keynote te openen en dat het de openingskeynote na een Computex-hiaat van drie jaar betrof, viel te merken. Voor de afgeladen zaal presenteerde een bijna uitgelaten Jensen Huang, de ceo van Nvidia, waar zijn bedrijf de afgelopen tijd mee bezig is geweest, en waar het de komende tijd mee gaat komen. Het zal, gezien de ontwikkelingen van de laatste tijd, weinigen verbazen dat AI daarbij een hoofdrol speelde. Vrijwel alles wat Nvidia liet zien, had namelijk tot doel AI te faciliteren of te benutten.

Daarbij speelde de consumentenmarkt maar een kleine rol. Niet zo gek, want Nvidia had op dat vlak zijn kruit natuurlijk al goeddeels verschoten met de introductie van de RTX 4060 Ti nog geen week eerder. Wij als consumenten merken alle ontwikkelingen die bijna als revolutie gepresenteerd werden natuurlijk wel, op allerlei vlakken, van gaming tot softwaregebruik, en misschien zelfs wat onze gezondheid en de manier waarop we werken betreft.

Consumenten

Nadat Jensen had benadrukt hoe snel Nvidia's gpu's en met name raytracing zijn geworden, werd de 4060 Ti nog eens getoond. Dat bleek de opmaat naar Nvidia ACE, een framework om AI-karakters voor games te maken. Collega Daan schreef daar een uitgebreid nieuwsbericht over. In het kort komt het erop neer dat generatieve AI gebruikt wordt om karakters in games te maken waarmee je op een natuurlijke manier moet kunnen interacteren.

Nvidia ACE

Na dit gaming-uitstapje richtte Jensen zich op accelerated computing en generative AI. Volgens hem komt accelerated computing en generative AI op precies het juiste moment, als traditionele scaling en Moore's Law steeds langzamer gaan. Met de juiste workloads is een gpu-cluster veel efficiënter dan hetzelfde op traditionele cpu's berekenen. Een large language model, bouwsteen van bijvoorbeeld ChatGPT, doorrekenen, is veel sneller met 10 miljoen dollar aan gpu's dan hetzelfde bedrag voor cpu's. Ook volgens andere metrics, zoals energiegebruik, zijn gpu's veel efficiënter dan cpu's. Ten slotte kun je met slechts een fractie van de investering, 400.000 dollar, hetzelfde rekenwerk aan het llm verrichten als met die 10 miljoen dollars aan cpu's.

Het datacenter

Met dat in het achterhoofd liet Huang de datacenterline-up zien. De eerste daarvan is de H100, die al in productie en gebruik is. Die bestaat uit 8 Hopper-gpu's onder grote, zware koelblokken en werd door Jensen aangeprezen als de duurste computer ter wereld. Een enkele module kost namelijk 200.000 dollar, maar vervangt veel meer hardware.

Het optimisme en de superlatieven over deep learning zijn wat aangedikt, met uitspraken als 'it can basically predict almost anything that you have data for', maar met hard- en software die speciaal erop gemaakt en ontwikkeld wordt, is duidelijk dat Nvidia er vol op inzet. Ook de overname in 2019 van Mellanox, een producent van snelle interconnects, noemde Jensen als extreem nuttige investering. Ook MagnumIO, wat Jensen het besturingssysteem voor distributed computing in datacentra noemt, benoemde hij als cruciaal element. Daarnaast noemde hij de cadans van twee jaar voor de ontwikkeling van accelerator-architecturen en hun interconnects. De recentste daarvan zijn respectievelijk Hopper en Quantum uit 2022, die in 2024 door 'Hopper Next' en 'Quantum Next' zullen worden opgevolgd.

Met steeds snellere hardware kan volgens Jensen voldoende data verwerkt worden om die data te begrijpen, of dat nu tekst, moleculen of natuurkunde is. Dat zou de weg vrijmaken om feitelijk de hele wereld te digitaliseren en als data te representeren. Dat zou elke industrie kunnen beïnvloeden en leiden tot een nieuwe generatie computers. Daar zou niet eens nieuwe software voor nodig zijn, want ook oude toepassingen zouden profiteren, bijvoorbeeld met helper-plugins voor bestaande software.

Superchips

Er is wel nieuwe hardware voor nodig, allereerst in de vorm van de Grace Hopper 'superchip'. Dat is een compute unit met een accelerated gpu die over 576GB gpu-geheugen (waaronder 96GB snel HBM3-geheugen) beschikken, aangestuurd door een cpu met 72 Arm-cores en een interconnect tussen die twee van 900Gbps. De gpu beschikt over 132 streamprocessors en 528 Tensor-cores. Grace Hopper, of GH200, is in productie en systemen met de module moeten later dit jaar verschijnen. Naast neurale netwerken zou GH200 ook uitermate geschikt zijn voor designtools als eda- en sda-tools, pcb-ontwerpen, vloeistofanalyses en eiwitsynthese.

Grace Hopper GH200

Om nog veel grotere datasets door te rekenen zonder de data te versnipperen, kan GH200 worden gecombineerd tot grotere clusters. Zo kunnen er 8 bij elkaar in een pod geplaatst worden, en daarvan kunnen weer 32 gecombineerd tot een enkele 'giga-gpu'. De volledige 144TB geheugen daarvan is gedeeld tussen de gpu's en het geheel wordt onderling verbonden door NVLink-switches. Dat alles levert een 'transformer' op met een rekenkracht van 1Exaflops, al zou dat 'slechts' met FP8 in plaats van FP16 of FP32 zijn.

Grace Hopper exascale

Nvidia kondigde verder een nieuwe serverfamilie, MGX, aan, die meer geschikt is voor allerlei accelerator-configuraties. En om alle onderdelen te verbinden, kondigt Nvidia een Spectrum-X-switch met 51,2Tbps aan bandbreedte aan, die met 64 800G-poorten of 128 400G-poorten kan worden uitgerust. In een behuizing met ondersteunende hardware heeft Spectrum-X de Spectrum4-switch. De switch werkt met Bluefield 3-nic, die een 400G-netwerkpoort heeft.

Digital twins

Ten slotte sprak Jensen Huang over digital twins, of gedigitaliseerde versies van fysieke objecten. Dat kunnen eenvoudige robotarmen, maar ook complete fabrieken zijn. Zo zouden fabrieken een digital twin kunnen krijgen, die dankzij generatieve AI en grote datamodellen geautomatiseerd kunnen worden. Nvidia noemt zijn techniek Nvidia Omniverse Cloud en stelt bedrijven onder meer in staat fabriekshallen te simuleren, optimaliseren en zelfs generatieve AI's aan fabrieksopstellingen te laten werken. Dat moet de tijd tussen bouwen en ingebruikname verkorten en de productie optimaliseren. Omniverse zou ook gebruikt kunnen worden om representaties van fysieke objecten in AI-generated omgevingen te plaatsen, een techniek waar de grootste advertentieproducent WPP, nu al gebruik van maakt.

Omniverse digital twin-fabriek

In de laatste demo werd een digital twin van een Pegatron-fabriek in Omniverse gemaakt en gesimuleerd. Leuk detail daarbij is dat de Arduino Uno in het voorbeeld werd geproduceerd. Als uitsmijter kondigde Nvidia een mobiel robotplatform, Nvidia Isaac AMR, aan. Dat is een reference design met Orin-chips, algoritmes, software en andere lagen, waaruit klanten kunnen kiezen. Zo kan een kant-en-klare oplossing met de complete stack gekozen worden, of slechts de Orin-chip of ander onderdeel uit de stack. Nvidia heeft zelfs een Nova Orin referentie-AMR ontwikkeld, die klanten als basis voor hun eigen robot kunnen nemen. Het robotplatform is al vanaf juni dit jaar voor bepaalde klanten beschikbaar.

Isaac AMR

Kortom, Nvidia staat met zijn volledige gewicht achter AI, en dan met name de generatieve AI die met ChatGPT bekend is geworden. Het noemt zijn hardware inmiddels transformers, omdat ze data van de ene vorm naar de andere transformeren, van bijvoorbeeld tekst naar spraak. Voor consumenten speelt AI een grote rol in gaming, maar voor de zakelijke klant valt geld te verdienen met het beschikbaar stellen van de benodigde rekenkracht. Hardware als Grace Hopper of GH200 en de al beschikbare H100 moeten daarvoor zorgen, samen met de onderliggende infrastructuur als de Spectrum-switches en BF3-nics. Ook de softwarestack, van algoritmes tot frameworks, besturingssystemen en complete cloudoplossingen, lijken allemaal ingericht op wat Nvidia de nieuwe generatie computing noemt. Zelfs zware industrie die vele miljarden euro's groter is dan de computerindustrie, kan volgens Nvidia volledig digitaal nagebootst worden. Het bedrijf belooft bovendien nog steeds toenames in rekenkracht die Moore's Law ver voorbij gaan, dus de toekomst kan interessant worden.

Reacties (36)

36
36
20
4
0
12
Wijzig sortering
Deze hardware zal voornamelijk toegepast worden bij grote bedrijven zoals Google en Microsoft om hun modellen verder te trainen. De instap prijs is niet mals en de complexiteit voor het aansturen en het onderhoud wordt alleen maar groter. Tevens zal Google en Microsoft blij zijn dat ze met de zelfde hoeveel rack space meer computer power kunnen behalen, wat enorm handig is. Je hebt maar beperkt hoeveelheid ruimte en het bouwen van hyper scale datacenter vereist veel vergunningen en gaat jaren overheen. De markt wil zoveel mogelijk computer power in 1U oplossing. Daarnaast zie je al dat Google en Microsoft hun AI capaciteit aanbieden via hun cloud oplossing, waardoor nog meer vendor locking ontstaat. Eenmaal in de eco systeem, is verdraaid lastig om er uit te stappen als bedrijf om zo model heen gebouwd hebt. AI gaat verzorgen dat deze bedrijven alleen maar groter worden en ik snap Nvidia wel, hier zit het geld en niet bij het mkb of startups.

[Reactie gewijzigd door Xieoxer op 23 juli 2024 19:14]

Eenmaal in de eco systeem, is verdraaid lastig om er uit te stappen als bedrijf om zo model heen gebouwd hebt.
Microsoft will net daarom met AMD samenwerken: https://arstechnica.com/g...bat-nvidias-ai-dominance/
Anoniem: 454358 @Xieoxer30 mei 2023 07:58
Ik ben benieuwd, maar ik denk dat er genoeg bedrijven zijn die miljoenen willen betalen om mensen te vervangen
...maar ik denk dat er genoeg bedrijven zijn die miljoenen willen betalen om mensen te vervangen
Dat ligt eraan. Stel een FTE kost, met alles er op en er aan (€100/uur), een miljoen om 6 jaar te bezetten. Is dat het waard? Want je bent er niet meteen met 1x een bedrag te betalen klaar, onderhoud, stroomverbruik, etc.

En momenteel is zo een LLM (AI) niet plug and play. En wat voor functies worden er dan exact vervangen? Zijn dat relatief dure plekken? Of zijn dat relatief goedkope callcenter plekken die nog langer duren om terugverdiend te worden? Wat kost het personeel die zo een machine constant bijstelt en onderhoud?

Mensen hadden vroeger ook dat beeld van automatisering. Maar het is nog steeds niet zo dat wanneer bedrijf x een robot arm koopt en deze naar binnen wordt gereden Jantje, Pietje en Klaasje direct hun biezen kunnen pakken. En men heeft dan weer hele andere afdelingen nodig om dat te plaatsen en te onderhouden. Sure, je heb geen lopendeband personeel nodig, maar wel ander personeel. Uiteindelijk resulteert het er meestal in dat een bedrijf meer produceert ipv. significant minder mensen in dienst heeft.

Dit is alles behalve nieuw, of denk je dat al die pottenbakkers stonden te juichen toen het wiel werd uitgevonden? Die hadden toen ook al zoiets van, daar gaat mijn werk! Duizenden jaren zijn we met significant meer mensen nog steeds aan het werk...
Dus Jantje, Pietje en Klaasje mogen wel direct hun biezen pakken. Henkie, die de AI onderhoud, die mag wel blijven (of wordt aangenomen).
Is makkelijk zeggen dat je voor AI ook personeel nodig hebt, dat is dan ook waar, maar dat wilt niet betekenen dat je je huidige personeel daar zo maar op kan zetten "school ze maar ff om". Afhankelijk of die AI letterlijk Jantje, Pietje en Klaasje hun werkt vervangt, dan is er geen plek meer voor hun.

Maar, eens, dit hoort nu eenmaal bij vooruitgang. Als een bakker failliet gaat vanwege een broodbakmachine, dan helaas, dat is hoe het werkt. Hou de ontwikkeling van de markt dus altijd goed in de gaten.
Dus Jantje, Pietje en Klaasje mogen wel direct hun biezen pakken.
Nee, dus, want er zal eerst een enorme teststraat moeten worden gebouwd om het proces te testen, te finetunen, etc. Ondertussen moet de huidige lopende band nog blijven draaien. dus zijn Jantje, Pietje en Klaasje nog even veilig. Totdat natuurlijk het nieuwe proces werkt en ze wel kunnen worden vervangen.
Henkie, die de AI onderhoud, die mag wel blijven (of wordt aangenomen).

Is makkelijk zeggen dat je voor AI ook personeel nodig hebt, dat is dan ook waar, maar dat wilt niet betekenen dat je je huidige personeel daar zo maar op kan zetten "school ze maar ff om". Afhankelijk of die AI letterlijk Jantje, Pietje en Klaasje hun werkt vervangt, dan is er geen plek meer voor hun.
Ja, maar in de IT geld ook, een is geen, dus dat zijn ook hele teams die worden aangenomen. Maar tijdens zo een proces worden ook meer dan drie mensen vervangen. Maar meestal resulteert dit in meer productie, dus later in de ketting zijn dan wel meer mensen nodig, zoals bv. bij transport. Dus kunnen Jantje, Pietje en Klaasje worden omgeschoold tot vrachtwagenchauffeur ipv. AI expert. Dat is natuurlijk niet altijd 1-op-1 overstap, maar over het algemeen stroomt dat redelijk door en er zullen zeker mensen op de bank belanden. Maar de personeelsstroom loopt ook door, mensen gaan met pensioen (of halen geen pensioen). Aan de voorkant komt er personeel bij, welke natuurlijk niet meer worden opgeleid in functies waar weinig vraag naar is. Er komen ook geen massa's opgeleide koetsiers op de arbeidsmarkt in 2023...
Anoniem: 80910 @Cergorach30 mei 2023 14:12
Vrachtwagens rijden in de toekomst ook autonoom, dus wat blijft er voor werk over. Ze willen ook robots met ai uitrusten, dus dan wordt schoonmaken, bezorging ook al gedaan. Er blijft weinig over zo.
Yes, in de toekomst. Zover zijn we dus nog niet, dus uiteindelijk zijn alle vrachtwagen, bus en taxi chaffeurs ook overbodig. Maar ondertussen zijn we al (vele) jaren verder, hoeveel zijn er ondertussen met pensioen?

Uiteindelijk zal de maatschappij drastisch moeten veranderen omdat werken niet langer noodzakelijk is. Dat zien we al decennia lang aankomen en daar zijn ook al veel discussies over en daar zullen nog heel veel discussies op volgen...
Omdat je minder mensen nodig hebt kunnen ook kleinere bedrijven beter concurreren dus ook sneller een verzadiging in de markt. Nu kunnen kleine studio moeilijk mee met de grote dat kan met AI ander zijn als team van 5 zat is ip 30 .
Bedrijf van 15 schaalt terug naar 5. Die van 30 naar 10 en deel van weggevallen personeel begint voor zich zelf die 2x bedrijven dus meer startups van 3 a 7 man die door AI meekunnen met hun oude grote ex werkgever. Wat vroeger nog barrier was.
Grotere aanbod van de diensten zullen dan ook goedkoper worden en dus spoeling extra dun.
Ik verwacht eerder dat hoop werkforce eruit gaat nog voor hun pension en dus met pension breuk zitten. Waar omscholing ook niet help omdat ze dan te oud zijn.
Dat is het ook niet echt: het is voorlopig meer zo dat een geslaagde combo van mensen en AI voor betere productontwikkeling en consistentere producten kan zorgen en dat is geld waard! Op het moment is het eerder nog warmlopen, maar de effecten op de maatschappij worden waarschijnlijk net zo groot als die van het internet. De hype is vaak over voordat het zo breed wordt ingezet dat "natuurlijk" er gebruik gemaakt wordt van AI. Je zou er nu ook niet van opkijken als een fabrikant "iets met internet deed", je verwacht dat je orders lekker snel lopen en men zeggen kan hoeveel stuks er op voorraad zijn.
Jup, klanten willen een 9 millimeter gat in de muur, geen 9 millimeter boor ;-)

Ik denk ook dat dit verder gaat dan MS - het zijn echt niet alleen de grote spelers die AI kunnen doen, elk ander software bedrijf is er mee bezig. Server en lokaal. Niet dat er inderdaad enorme risico’s zijn qua vendor lock in door ms en google etc, helemaal mee eens.

Maar linksom of rechtsom is dit natuurlijk gewoon top voor NVIDIA en hun aandeelhouders 😅

Er valt zoveel te verdienen…
Die vendor lockins zijn er al decennia, momenteel is dat niet VMs (of Kubernetes), maar de 'serverless' computing van bv. Amazon (AWS), Microsoft (Azure) en Google (Google Cloud). Dat is ondertussen gemeengoed geworden, zo erg zelfs dat men daar dingen in is gaan doen waar het niet efficiënt in/voor is (zodat men juist terug gaat naar VMs voor specifieke zaken)...

Zo hadden we daar erge zorgen over qua databases 20+ jaar geleden, maar imho is dat nooit echt een heel groot probleem geweest. Men heeft altijd de migratie kunnen maken van A naar B... Meestal waren dit gewoon de 'beste'/populaire oplossingen van hun tijd, dat zal met LLM (AI) ook nu gewoon het geval zijn.

ChatGPT is heel mooi, maar hun businessmodel is gewoon ruk richting het bedrijfsleven. Bepaalde LLM (AI) producten van Google zijn niet buiten de VS te gebruiken en bij Microsoft wachten we nog steeds op M365 Copilot (wat ze nu aan het uitrollen zijn bij 600 grote bedrijven als 'test' waar ze voor moeten betalen). Die commerciële oplossingen zijn alles behalve volwassen. Ondertussen kan je prima LLM (AI) draaien op lokale consumenten hardware... En een LLM trainen kan je prima op ingehuurde computing power met 0 vendor lockin. Alles behalve goedkoop, maar te doen als je bedrijf groot genoeg is en het wordt eigenlijk alleen maar goedkoper, waardoor steeds meer en meer organisaties het zelf kunnen doen.

Het zal een situatie worden, wie heeft de beste tools voor X tegen de beste prijs, tov. de makkelijkste en beste integratie/onderhoud. Momenteel prijs voor oa. Nvidia, maar er zijn ook andere spelers op de markt, waaronder AMD en Intel...
Anoniem: 80910 @Cergorach30 mei 2023 14:19
Volgens mij heb je al een petabyte voor een ton. 6x 8TB per server 48 TB heb je 21 servers nodig, x 2 voor redundantie. Server prijs is 2000 x 42 = 84.000 de rest gaat op aan stroom / onderdelen.
Deze nvidia datacenter is vendor lock in waar zwaar voor betaald moet worden. Voor grote google of MS is zelf ARM silicon misschien overwegen als er voldoende schaal grote voor is. ML AI ASIC meer dedicated hardware. Naast eigen ARM server cpu.
Voor kleinere corporaties waar eigen implementatie brug te ver is en met momentum mee willen gaan tja daar loopt nvidia mee voor op voorlopig. Al zal je dat veel kosten.
Ontzettend knap hoe Nvidia op de markt voor deep learning eigenlijk een monopolie heeft. Het CUDA framework werkt echt als een dolle voor al het ontwikkelwerk dat gebeurt op gebied van deep learning.

Maar er zal ook genoeg druk zijn om ASICS te ontwikkelen voor bepaalde AI workloads. Zeker als bijvoorbeeld GPT modellen echt zo groots gebruikt gaan blijven worden, dan zullen voor bepaalde modeltypes specifieke chips beter werken dan de GPUs, zoals je ook al zag bij de crypto-hype. Maar daar gaan nu de ontwikkelingen nog te snel voor.
Anoniem: 80910 @Bonsaiboom30 mei 2023 14:22
Met de data die nu gegenereerd wordt en je terug gaat naar assembly debugging om er asics van te maken duurt wel even, ik denk zelfs 5 jaar voordat je dat goed onder de knie hebt
Vond het maar een bagger slechte presentatie,
Jensen: “look at all those lights that, light things, so many lights, wow”

Serieus??

Had de helft korter en veeeeel sterker moeten zijn, leek alsof ie constant de draad kwijt was.
De video van Gamers Nexus hierover was ook weer mooi, wat een bizarre keynote moet dat zijn geweest inderdaad. Leek wel alsof Jensen de verkeerde medicijnen had ingenomen die ochtend?

Edit: link naar video https://youtu.be/IlWT_TdOK6s

[Reactie gewijzigd door PommeFritz op 23 juli 2024 19:14]

Ja heb de og presentatie gezien was echt bizar. Deze video pakt de highlights maar ze vel was gewon gezever van de hoogste orde echt bizar.
Met de slappe launch en kritiek op de 4060 ti zou ik ook geen aandacht er naar toe brengen.
Een midrange kaart is zowiezo geen materiaal voor een keynote waar je alleen het grootste, nieuwste en beste wil laten zien.
Voor het bedrijf is het ook beter niet op 1 paard te wedden. Ondanks dat 'kamp nVidia' heel fanatiek is is gaming slechts een deel van de markt voor GPUs. We zagen tijdens de crypto hype al dat nVidia ook doodleuk hun gaming spul minder prio geeft als hun chips elders meer opleveren. Dat zal voor AI niet anders zijn.
High density rack - high power racks bouwen is echter ook niet goedkoop, hiervoor is dedicated watercooling en chilling nodig. Dit kost ook een pak meer dan de conventionele racks. Standaard immersion cooling werkt ook al niet meer op dit type verbruiker. Dus het is een balans tussen oppervlakte en densiteit. Trouwens ze mogen dan wel efficient zijn in hun taken, het blijven nog steeds zware verbruikers. En heel wat van deze energie kan je ook al debateerbaar noemen, tegenwoordig is zogezegd van alles een model nodig... een hype of een trend....het zal er wel ergens tussen liggen.

Helaas is de grace hopper nog niet de cutting edge technologie van nvidia, want ze hebben geen shared memory tussen cpu en gpu... op dat vlak is AMD dus al verder mer de MI300, ook Intel komt volgend jaar met de Falcon Shores maar daar missen we ook nog details omtrent interconnects en "shared memory data".

[Reactie gewijzigd door d3x op 23 juli 2024 19:14]

Denk dat niet alleen hardware is wat nvidia sterk maakt eerder de software stack. Denk dat corporatie die met hun in zee gaan dus ook vast zitten aan hun vendor lockin en dat ook heel veel zal kosten en momenteel voorlopen dus dat toch geneog bedrijven er voor vallen. En dan wachten of er op tijd goede concurrentie komt.
Nvidia's innovaties op gaminggebied hebben we toch geen drol aan. Zo lang AMD achter loopt, en daarmee game consoles, blijven dingen zoals path tracing toekomstmuziek.
Hoezo alleen AMD? De Nintendo Switch heeft een nVidia chip :+
De Switch is op de meeste AAA games niet van invloed. Het zijn Xbox en Playstation die het tempo bepalen. Als die volgende generatie ML en path tracing ondersteunen zal dat in games een stuk gebruikelijker worden. Doen ze dat niet dan blijft het een PC-only feature die af en toe voor de leuk geïmplementeerd word als ultra setting.
Er is een hele wereld buiten console gaming, genaamd PC gaming. Sure, veel AAA games zijn (slechte) console ports, maar er zijn bergen games die of alleen op de PC uitkomen of eerst op de PC uitkomen en dan naar de console gaan. Dit zijn echter vaak niet de games die de allernieuwste game engines gebruiken en de nieuwste (zware) kaarten nodig hebben. De innovaties van Nvidia zijn absoluut mooi, RTX, DLSS, Cuda, etc. Maar de nadruk heeft de laatste generaties gelegen op prestaties en veel minder op laag verbruik en prijs, dat is bij Nvidia ook niet vreemd, want gaming is al een heel klein deel van de Nvidia omzet geworden, nog minder omzet waar de doorsnee consument er maar eentje van nodig heeft is geen goede business zet...
De grafisch meest vooruitstrevende games zijn doorgaans cross-platform tussen Xbox, Playstation en PC. Dus consoles bepalen de basislijn.
Linus heeft daar een filmpje van : https://www.youtube.com/watch?v=It9D08W8Z7o
Heeft ook uit de server gehaald, de 2 cpu en cpu+gpu. En hij heeft ook nog de koelblok er afgehaald. Die zijn echt heel groot. Of hij heeft hele kleine handen.

[Reactie gewijzigd door Calamor op 23 juli 2024 19:14]

Linus Tech Tips laat de nieuwe Nvidia ARM CPUs zien, die zijn echt achterlijk groot!
https://www.youtube.com/watch?v=It9D08W8Z7o
Straks gaan we offline multiplayer games krijgen met AI-karakters die gaan schelden als je ze neerschiet in een potje call of duty/battlefield :+
Veel gespeeld was altijd een leuk spel :)
Had alleen niet zo snel een reference op tweakers verwacht haha.
The more you AI the more you AI!

Dit was de meest slechte presentatie die ik Nvidia ooit heb zien geven. Nu baseer ik dit voornamelijk op de highlights van de meeste tech kanalen.
Gamer nexus fakkelt die presentatie tot de grond aan af. Niet de producten maar de presentatie.

Op dit item kan niet meer gereageerd worden.