Topman Dell: Nvidia B200-gpu komt in 2025 en verbruikt ongeveer 1000W

Een topman van Dell heeft aangegeven dat Nvidia momenteel aan een B200-videokaart werkt. Deze AI-videokaart voor datacenters zou in 2025 op de markt komen en een vermogen van ongeveer 1000W gebruiken. Nvidia heeft deze gpu nog niet officieel aangekondigd.

Jeffrey W. Clarke, de coo van Dell Technologies, zei tijdens een financiële vergadering dat de introductie van de Nvidia B200 een nieuwe kans aan het bedrijf kan bieden om zich te tonen op de markt. Clarke verwees naar specifieke vloeistofkoelingssystemen die Dell ontwikkelt voor klanten met een aanzienlijke computationele capaciteit. De coo van het bedrijf gaf geen verdere details.

De Nvidia B200 moet een verbeterde versie van de Nvidia B100-videokaart worden. De B100-datacenter-gpu is eind 2023 aangekondigd, is gebaseerd op de Blackwell-architectuur en moet in 2024 op de markt komen. De B100 zou in bepaalde AI-taken meer dan dubbel zo snel zijn in vergelijking met de Nvidia H200-datacenter-gpu die ook eind 2023 is aangekondigd en nog gebaseerd is op de Hopper-architectuur. Nvidia houdt op 18 maart een nieuwe keynote waarin nieuwe producten van het bedrijf zullen worden voorgesteld: Nvidia GTX 2024.

Nvidia H100-datacentergpu
Nvidia H100-datacenter-gpu

Door Jay Stout

Redacteur

03-03-2024 • 10:00

161

Submitter: CriticalHit_NL

Reacties (161)

161
151
42
6
0
67
Wijzig sortering
En wij moeten maar groen doen, 1000 watt pffff en dat maal x in een ai bedrijf.
Dit was mijn eerste reactie ook, maar als de B200 GPU tegen 1,4x meer stroomverbruik een hogere snelheidswinst dan 1,4x haalt dan is je netto rekenkracht per Watt natuurlijk meer. Dit schaalt met warmte redelijk lineair tot er een omslagpunt wordt bereikt waar normale koeling niet meer voldoende is en je meer stroom moet gaan verbruiken om de boel koel te houden.

Je kunt niet gelijk zeggen: Oh meer verbruik is slechter, hoewel er effectief miljoenen GPU's straks weggepleurd worden omdat ze in relatieve zin teveel stroom verbruiken. Nvidia lijkt obv "Planned obsolescence" gewoon elk jaar een nieuwe te releasen om de winst te maximaliseren. Bedrijfsmatig een logische keuze, de wereld wordt er echter niet beter van.
Recyclen is nauwelijks de moeite waard.
Het mag wel eens tijd worden dat er wat wordt gedaan aan dit soort mega vuilnisbelt boosters.
De,e gedachtegang is eigenlijk een soort greenwashing of reken je rijk gedachte. De paar watt die een huishouden bespaart door ten koste van van alles en nog wat wordt gedwongen door belastingen en wetgeving wordt volledig ongedaan gemaakt door dit soort dingen. Er moet eigenlijk gewoon energie bespaard worden, en dan niet een paar watt aan de ene kant besparen om aan de andere kant het tienvoudige extra te verbranden.
Voorbeeldjes. Reclame, in welke vorm dan ook kost energie, en voegt eigenlijk niets toe. Producten als red bull kosten enorm veel energie om maken en voegen niets toe, het maakt mensen ziek. Servers waar petabytes vol met kattenfilmpjes op staan, bitcoins, enz, enz. Het kost allemaal enorm veel energie en hier is helemaal geen maatschappelijke discussie over. Maar wel ledlampjes plaatsen hè, anders vergaat de wereld. Hetzelfde kun je van AI vinden. Is het allemaal de energie vraag waard?

[Reactie gewijzigd door m-a-r-t-1 op 22 juli 2024 14:03]

Ja, er zit wel wat in jouw punt. Al is de discussie over wat is zinnig heel moeilijk. Maar we hebben tegenwoordig de neiging om 'leven moet zuiniger maar commercie mag verspillen'. Dus thuis de LED-lampjes en de verwarming lager zetten (notabene op advies van de overheid...) en ondertussen vreet commercie steeds meer energie voor het drukken van reclame folders, maken en tonen van reclame.

Maar ik denk dat we moeten beseffen dat vooruitgang hoe dan ook meer energie gaat kosten. En daarbij hoort ook - helaas - meer afval omdat we oude oplossingen, vervangen.
Het mag wel eens tijd worden dat er wat wordt gedaan aan dit soort mega vuilnisbelt boosters.
Zekers, alleen hoe?
Het recyclen moet gewoon meegenomen worden in de prijs. Dat zou (in een ware vrije markt) eigenlijk met alle externe effecten zo moeten zijn, denk aan: milieuvervuiling, maar ook b.v. de mentale/psychische last die een werknemer (of zelfs kindarbeid) ondervindt aan zwaar of oneerbiedig werk doen. Dat zijn uiteindelijk allemaal directe effecten van een bepaald product en het gehele productieproces ervan - en een consument zou daar dus voor moeten betalen. Alleen dán kun je als consument gerust alleen naar de prijs kijken en heeft zo'n keuze een min of meer rationele uitkomst (b.v. een milieuvervuilend product blijkt duurder dan een product dat dat niet doet). Helaas zijn we zéér ver verwijderd van zo'n "echte" vrije markt.

[Reactie gewijzigd door Gulpen op 22 juli 2024 14:03]

De "echte vrije markt" die nodig is om te bereiken dat elk denkbaar effect wat aan een product kan worden toegeschreven in de prijs is verdisconteerd kan dus geen vrije markt zijn.
Het gedrocht wat daarvoor nodig is komt eerder in de buurt van een streng gereguleerde vorm van een planeconomie.
"Elk denkbaar effect dan aan een product kán worden toegeschreven" is dan ook geen bruikbaar criterium. Als er een "spiritueel genezer" gaat klagen dat 5G zijn aura aantast, dan moeten we niet een extra heffing op 5G gaan leggen. Iets realistischer: er zijn een handvol mensen die windmolens op land horizonvervuiling vinden, en dat is alweer subjectief.

Daarom moet je alleen de objectief negatieve externaliteiten belasten.
"Elk denkbaar effect dan aan een product kán worden toegeschreven"

Ja, het is noodzakelijk om het zo ruim te stellen. Niemand weet immers welke criteria morgen worden bedacht en eventueel afgedwongen om een nu nog denkbeeldig gevolg te koppelen aan een oorzaak. Of die criteria objectief zijn is nauwelijks relevant.

Nog niet zo lang geleden werd Shell door een rechter verantwoordelijk gehouden voor het gebruik van Shell producten door hun klanten. Er zijn ook mensen die willen afdwingen dat we nú stoppen met fossiel terwijl dat helemaal niet kan.

Wordt Nvidia straks aangeklaagd omdat hun klanten met energie slurpende Nvidia GPU's crypto hebben gemined? Is crypto minen sowieso niet een klimaatmisdaad?

Er komt wellicht een tijd waarin de aanklagers van nu verantwoordelijk worden gehouden voor de ontwrichting die ze hebben veroorzaakt.
Alleen gebeurt het nu niet, dus hoe zou je dat wel zo kunnen krijgen?
Regulering. De overheid heeft als taak de schadelijke uitwassen van de vrije markt te voorkomen / beperken. We gebruiken geen schadelijke pesticiden of CFKs meer na regelgeving. We zouden voor dit probleem een leefmilieutaks / leefmilieu-btw-korting kunnen invoeren. Of de overheid verplicht om recycleerbaarheid mee te nemen in het ontwerp van een product. Kijk naar de Pringles chips: de verpakking was een moeilijk recycleerbare combo van metaal, karton en plastiek. De nieuwe verpakking is een plastiek dekseltje en een kartonnen buis - supereenvoudig te recycleren. Het systeem zit vol quick wins als we bedrijven hun vervuilend ontworpen producten niet langer laten doorschuiven naar de maatschappij.
Zoals je eigenlijk ook wel uit Gulpen's post kan afleiden; stemmen op een overheid die de vrije markt wél snapt.
Beetje flauw of nVidia te beschuldigen van planned obselence. Ik kan het natuurlijk niet bewijzen dat het wel/niet zo is. Maar het is een innovator - dus ze verbeteren hun producten telkens verder. En natuurlijk gooi je dan soms oude producten weg. En ja, daar wordt de wereld wel beter van.

Onnovatie betekent nu eenmaal ook 'vervanging van de oude oplossing'. Het is niet anders.
Hoeveel beter wordt de wereld van de huidige implementatie en vooral de hype van AI? Moeten we daar al die energie en afvalberg in stoppen? En wij consumenten moeten minder consumeren,minder afval maken, minder stroom verbruiken.. Meanwhile staat Microsoft in Middenmeer al mijn zonne-energie op te ronken en alle windmolens op te stoken, zodat truus van de receptie vervangen kan worden door een bot
Tja, als geheel zijn we toch bezig om steeds meer te doen met minder mensen en dat wij als consumenten moeten minderen is daarin inderdaad een vreemde eis. De consument is niet direct de grootste verbruiker maar indirect uiteindelijk wel. Dus hebben we winstmaximalisatie wat deels leidt tot meer consumptie - en dus meer afval en meer energie gebruik - en ondertussen de wens om dit terug te dringen. Wat dus niet gaat lukken omdat de voornaamste drijfveer voor innovatie (en derhalve oa. hopelijk minder energie gebruik), winst maximalisatie is.
Nu kun je dat ook doen door gewoon de verkoopprijzen te verhogen (en derhalve de winstmarge) maar concurrentie gaat dat weer tegen.

Daarom is het aanpassen van consumenten gedrag aan de ene kant niet zo zinvol omdat we niet direct de grootste verbruiker zijn, maar indirect helpt minder consumptie natuurlijk wel. Dus productie omlaag moeten maar we 'moeten' eerst nog alles vervangen door zuiniger varianten en we willen ook niet stoppen met innoveren (en winst maken).... Catch-22 dus.
Dit was mijn eerste reactie ook, maar als de B200 GPU tegen 1,4x meer stroomverbruik een hogere snelheidswinst dan 1,4x haalt dan is je netto rekenkracht per Watt natuurlijk meer.
Zeker. Maar de GPU zal goedkoper zijn, en dus voor meer incentive gaan zorgen voor het inzetten van AI (want dat wordt mee goedkoper). En netto zal er uiteindelijk dus toch meer energie verstookt gaan worden.

En de vraag is dan waar al die energie voor verstookt zal gaan worden? Voor het maken van grappige plaatjes en filmpjes om meer hits op Youtube te krijgen en daarmee dus geld te verdienen?

Youtube begint zijn eigen economie te worden.

Maar wat wint de mensheid daar eigenlijk precies mee?
De door jou genoemde grappige plaatjes en filmpjes zijn slechts een topje van de ijsberg. AI heeft toepassingen in de medische wereld, in het oplossen van talloze technische problemen, planning en coördinatie, militaire toepassingen, financiële toepassingen, en zo zijn er vast nog tientallen gebieden waar ik nog niet eens aan gedacht heb in de paar minuten dat ik deze post aan het typen ben.
"Planned obsolescence" is een strategie waar producten die je vroeger verkocht hebt actief worden tegengewerkt, bijvoorbeeld door geen reserveonderdelen meer te leveren, of essentiele software licenties op te zeggen. Dat doet NVidia dus niet. Sterker nog, de nieuwe drivers die voor de B200 zullen uitkomen zullen zeker nog de B100 ondersteunen.

Dit is logisch: planned obsolescence werkt niet in een markt waar je hoopt dat jouw klanten meerdere generaties van jouw product kopen. En voor NVidia's AI chips is dat zeker het geval. Gamers slaan misschien een generatie over, maar AI klanten kopen honderden tot miljoenen chips per generatie.
Planned obsolescence is precies wat er staat, ze maken een design,w etende dat dit design bij de eerstvolgende iteratie al zo slecht is dat het alleen maar logisch is om de volgende te kopen. Die dingen worden volgens mij echt niet gemaakt volgens de cutting edge in de techniek, maar net goed genoeg om het vorige model te vervangen zodat ze zoveel mogelijk iteraties kunnen pushen. Je gooit daarna effectief de gpu, geheugen, pcb en een brok koper voor de koeling weg. De saving grace is dan de aanschafprijs, die echt idioot hoog is, maar dat is ook artificieel (kijk naar de winst van nvidia)
Punt is dat door die hoge aanschafprijs het stroomverbruik gedurende een langere tijd te verantwoorden is, wat eigenlijk ook niet goed is voor de wereld. Ik vind de AI hype niet belangrijk genoeg om die miljoenen megawatts aan warmte en miljoenen tonnen aan afval te verantwoorden. Zeker niet waar het momenteel voor wordt ingezet.
Tja, vooruitgang kost nu eenmaal wat.
Verslaafd worden aan elke keer betere graphics is geen vooruitgang.
Net als drugs je wil steeds meer en beter spul hebben maar er is werkelijk geen nut, je had vroeger net zoveel plezier met grafisch mindere uitziende games.
Zo werkt dat niet. Het 'nut' van betere/leukere spellen is heel moeilijk quantificeerbaar.

Dat is ook geen verslaving. Dan moet je vrijetijdsbesteding onder verslavend scharen.

En daarbij verschuift ook het gebruik - die betere GPU's worden ook gebruikt voor server-based gaming, 3D modelling en nu ook AI.
Yep, met je laatste opmerking ben ik het helemaal mee eens hoor, wat mij betreft hoeft het allemaal niet ultrarealistisch er uit te zien, en ikzelf geniet nog steeds zelfs van spelletjes op de oude Philips videopac. Maar ik ben dan wel opgegroeid met de hele evolutie, en irriteer me mateloos aan opmerkingen van jongelui die mauwen dat er iets niet uit ziet want het lijkt op PS3 graphics, waarbij ik nog steeds vaak genoeg onder de indruk ben van wat een PS3 aan graphics er uit kan pompen.
Maar ik vind ook dat anderen die wel bakken met geld willen uitgeven om de beste graphics te hebben ook hun kans moeten krijgen, voor hun is dat hun hobbie. En bedenk je maar zo, als niemand die bakken wil uitgeven, dan zou er veel minder snelle vooruitgang zijn.
Ik snap niet waarom in deze comment stroomverbruik en stroom oorsprong met elkaar gecorreleerd wordt. 1000 Watt, maakt toch niet uit? Zolang het groene stroom is, is het ook "groen doen".

Wanneer het over energiegebruik zelf gaat, dan kan je beter zeggen "lang warm douchen, beter niet". "met de auto naar de supermarkt, beter niet", maar stroomverbruik van AI training GPU's...snap niet daarmee te doen heeft.
Wat ik me afvraag, de verhouding van meer stroom verbruik ten opzichte van het efficiënter werken met ai. Hoe verhoudt zich dat eigenlijk?
Er geen directe verhouding. Het energieverbruik per gpu vertelt je niks over de efficiëntie. Als deze gpu 2x zo veel stroom verbruikt maar 4x zo snel is dan heb je een gpu die 2x zo efficiënt is ondanks het dubbele stroomverbruik.

Ondanks vooruitgang van de techniek zal het stroomverbruik van AI echter nog een probleem blijven. Het is namelijk een technologie waar hoe meer middelen je er tegen aan gooit, hoe beter de resultaten zijn. Snellere gpu's zullen er dus niet direct toe leiden dat er minder worden ingezet, waarschijnlijk worden ze net zo massaal ingezet om betere performance/training van het model te kunnen krijgen.
Met deze B200 is het natuurlijk moeilijk te zeggen, maar alle consumenten hardware leveranciers (maar dit is geen consumenten hardware, wel dezelfde producent) hebben er een handje van om maar een gedeelte extra efficiëntie per generatie er tegenaan te gooien en veel meer stroomverbruik om hele hoge prestatie verbeteringen op papier te zetten.

Als ik kijk naar bv. een 3090 vs een 4090, 107% betere prestaties, maar 'slechts' 60% betere efficiëntie. Er is dus ook 50% meer stroomverbruik om die prestatie verdubbeling neer te zetten.

De nog niet uitgegeven B100 zou volgens sommigen 1430W verbruiken, maar anderen geven aan 700W. Het zou dus kunnen dat het een heel stuk efficiënter is of toch niet zo heel veel...

Het is de H100 (2023) => B100 (2024) => B200 (2025)
Bij introductie was de H100 €30k+ (ex. btw)...

Bron:
https://www.nextbigfuture...-ai-compute-clusters.html
https://longportapp.com/en/news/99581263
https://www.tomshardware....-h100-80gb-price-revealed
maar alle consumenten hardware leveranciers ... hebben er een handje van om maar een gedeelte extra efficiëntie per generatie er tegenaan te gooien en veel meer stroomverbruik om hele hoge prestatie verbeteringen op papier te zetten.
Technisch gezien heb je gelijk, maar ik vind "hebben er een handje van" wel een erg negatieve reactie naar de verkeerde partij. Consumenten hebben er een handje van om de snelste GPU/hadware te kopen zonder om efficiency te geven. De producent voldoet gewoon aan die eis. Als wij met z'n allen zouden besluiten dat efficiency het allerbelangrijkste aspect van een GPU is dan zouden de fabrikanten er heel snel "een handje van hebben" om de zuinigst mogelijk te maken.

[Reactie gewijzigd door Snoitkever op 22 juli 2024 14:03]

Je heb geen ongelijk, maar dat klinkt een beetje alsof een cocaïne dealer ook alleen maar inspeelt op de vraag in de markt...

Daarnaast is de zakelijk markt niet heel veel beter, daar wordt niet gekeken naar efficiëntie van verbruik vs. rekenkracht, maar naar de efficiëntie van kosten vs. rekenkracht. Natuurlijk is stroomverbruik ook een kostenpost, maar zoals we al zien in de AI industrie, ze gebruiken bergen stroom. Als je een kaart koopt van ~€35k-€40k en je stroom rekening is minder dan €2k/jaar voor iets dat 1000W trekt 24x365, dan is dat peanuts, helemaal als je kijkt naar de rest van de infra, personeel, etc.
De vergelijking met consumentenhardware gaat wat mij betreft niet echt op, behalve dat het ontwerp van de datacenter gpu's misschien die van de consumentenkant beinvloed. Er wordt zeker steeds meer stroom verstookt, voornamelijk in de race om de snelste te zijn in een sector die bol staat van venture capital dus kosten boeien toch niet zo. Consumentenhardware is wezenlijk anders in het feit dat de duty cycle daar veel lager is, dus dat maakt de efficientie-berekening anders dan de datacenteronderdelen. Er wordt zeker daar ook echter veel meer stroom verstookt, en dat zou wel eens anders mogen. Wat limitaties aan hoeveel watt een PC mag verstoken zou niet gek zijn, dan gaan we concurreren op efficientie in plaats van hoeveel VRM's we op een GPU kunnen proppen.
Waarom jezelf beperken. Waarom mag mijn computer niet meer verbruiken dan jou auto?
Energie verbruik stofzuigers heeft de eu ook aan banden gelegd.
Pc's voor thuis gebruik zou best wel eens de volgende stap kunnen zijn

Betutteling, misschien...
Maar straks hebben we nog krachtstroom nodig voor onze gaming pc. Kan ook te gek worden natuurlijk.
Een stofzuiger is redelijk uitontwikkeld, zuigmond, slang, filter, motor en opvang.

Voor een computer thuis weet je eigenlijk weinig, wie weet gaat een AI systeem in de toekomst dat 2000W vraagt wel heel veel voordeel opleveren qua efficiëntie en milieu.
Als persoonlijke PC? Hoe gaat dat veel milieuvoordelen opleveren?
Als deze je hele huis aanstuurt qua elektra, water, verwarming weet ik veel.

Maar dat weet niemand en daar gaat het om.
Het is een absoluut bizarre positie om 2000W te willen verstoken in een persoonlijke PC met alle nadelige gevolgen van dien, "vanwege de mogelijke milieuvoordelen", alhoewel je niet eens een theoretisch scenario kan bedenken waar in dat milieuvoordeel op kan leveren. Dan kan je de efficiëntiemaatregelen van je stofzuiger ook gaan opheffen, want misschien vindt je stofzuiger wereldvrede uit bij 5000W, of iets dergelijks.
Waar het mij om gaat is dat het hier om een apparaat gaat dat niet uitontwikkeld is en qua potentie niet een vastgestelde functie heeft.

Ik hoef geen theoretisch scenario te bedenken want in de jaren 90 kon je ook niet voorstellen dat een appliance als NAS of domotica beschikbaar was.

Maar al deze ontwikkeling begint en heeft zijn voeten in de persoonlijke PC de afgelopen 30 jaar, niets anders; het is echt niet ondenkbaar binnenkort met een AI-kaartenset 2000W te verstoken met allerlei innovatie tot gevolg.

Kan je lacherig doen over een stofzuiger maar die gaat echt geen nieuwe innovatie of andere functie brengen. Een hoog-wattage stofzuiger zuigt beter dus dat het is het marketingargument wat gereguleerd is gaan worden, waar het eigenlijk nuttiger is over te gaan bomen of die regel eigenlijk wel niet BS is.

Dit is kortzichtig milieu om het milieu ten koste van innovatie, en die paar gamers, soit.
Ik hoef geen theoretisch scenario te bedenken want in de jaren 90 kon je ook niet voorstellen dat een appliance als NAS of domotica beschikbaar was.
Om even aan te geven hoe ver je van de waarheid zit in deze: Samba, de linux-reimplementatie van Windows network filesharing protocol zodat servers makkelijk files konden delen met Windows PC's, is voor het eerst uitgekomen in 1992. Mensen konden zich dit prima voorstellen in de jaren 90, niet in het minst omdat ze het gewoon al deden. Dus ja, het feit dat jij niet eens een theoretisch scenario kan bedenken hoe jou voorstel van een persoonlijke 2000W AI PC het milieu gaat helpen is nogal relevant.
Oh kom op. Een NAS is geen netwerk disk. Streamen etc. bestond toen nog niet en het is onzin alles te reduceren tot FTP of TELNET protocol.

Edit: we hebben nu een zelfrijdende auto dankzij AI. Daar komen wel nieuwe dingen en als ik ze kon verzinnen met de garantie die jij wilt was ik rijk. Als we destijds PCs op 250W gecapped hadden hadden we gewoon stilgestaan.

Het kortzichtig staren op 1 facet en beperken onder het mom van milieu is vreselijk kortzichtig. Die nieuwe zuigers moet je langer mee zuigen per beurt en gaan geen 50 jaar mee. Het vervangen van het plastic rietje maakt de afvalberg niet kleiner.

Het belasten van energie vervult de functie om rekening te houden met milieu. Als iemand z'n geld daar aan wilt uitgeven, soit.

Maar dit soort maatregelen terwijl vliegverkeer en bevolking groeit (8 mld 2050) zet echt geen zoden aan de dijk...

[Reactie gewijzigd door Xander2 op 22 juli 2024 14:03]

Een NAS is een afkorting voor Network Attached Storage, een fileserver die via TCP files beschikbaar maakt. Dat is alles. Dat jij het blijkbaar koppelt aan streamen (waarom?) verandert niet wat dat betekent, en buiten dat bestond video streaming tech ook in de jaren 90.

Verder ga ik niet in op je hele tirade tegen o.a. rietjes (wie heeft het daar over?). Alles is nog steeds mogelijk met wat energie beperkingen op persoonlijke PC's. Alle werk en onderzoeks PC's zijn daar van uitgezonderd, dus dit hoef niks te hinderen, zelfs je geliefde AI niet. Dat trainen en draaien daar van zit toch allemaal in datacenters. Het zorgt er alleen voor dat fabrikanten niet meer kunnen concurreren op de consumentenmarkt door dan maar 400W door hun CPU heen te jagen (kuch kuch Intel).

[Reactie gewijzigd door jaxxil op 22 juli 2024 14:03]

Nou ik merk qua snelheid weinig verschil tussen een laptop i7 32 GB etc, en desktop i7 96 GB etc. Terwijl de laptop 30 kw / maand doet de server 200 kw / maand aan stroom. Rara hoe kan dat ? Tv's hebben ook een maximum in de eu. Nu komt er geen 8k omdat ie het stroomgebruik momenteel te hoog hebben. Consumenten gebruiken 3000 kw / jaar per huishouden, ik vind dat je best een werkstation thuis mag hebben bijvoorbeeld want zzper. Goed gereedschap kost geld en performance kost stroom. Straks kan iemand z'n werk niet doen vanwege jou stroomverbruik. Ai bijvoorbeeld heeft momenteel veel stroom nodig bij het trainen. De verwerking van de embedding kost rekenkracht, de 4090 kan het amper, dan heb je echt 2 a 3x zo'n snelle kaart nodig. Je kan met vergunningen gaan werken, accijns. Zo keek ik vandaag voor gas wat ik aan belasting moet betalen. Ik heb nog het oude tarief waarbij ik 75 cent belasting betaal per kuub en 20 cent voor de gasprijs. Dat is toch niet te rechtvaardigen ? Oftewel zoek eerst eens uit wat de vervuiling is, ipv hebberig het klimaat proberen te financieren. Mijn server in huis staat gelijk aan een extra persoon in huis qua stroomverschil. Dat mag toch aangezien ik geen kinderen heb?
Ik weet niet of je wel eens naar een temperatuurgrafiek hebt gekeken de laatste tijd, maar dat lijkt me een prima reden.
Eeeh… omdat je auto zoveel energie verbruikt dat je in 5 minuten je kamer 5c zou verhitten….

Ff voor de lol, je gebruikt 20pk 10% van je motor, om 100kmh te rijden.

Dat is 15kw (met 20% efficientie als het ice is of 90z% als electrisch maar 75kw en 17kw wordt gewoon te nutteloos want 15kw is al veels te veel.)

Dat krijg je niet uit je stopcontact…
15kwh dat is wss meer dan je verwarming voor je hele huis.
Als je dat in 1 kamer hebt, dan heb je een sauna die binnen een paar minuten oogewarmd is..

Waarom niet? Omdat dat gewoon compleet onpractisch is dus.
Hoeveel denk je dat de gemiddelde cv-ketel in een gemiddelde eengezinswoning aan warmte kan leveren? Iets meer dan 15kw (en niet kwh).
Goed heb het even opgezicht, De meeste CV ketels zitten tussen de 11-20kw dus ok prima. Mijne is kleiner maargoed maar redelijk geisoleerd huis. Anyways.

Maar niet al die hitte zit in één kamer. En dat vermogen is maximaal en die warmte wordt geleverd met water welke langzaam opwarmt in je leidingen en dat dan langzaam afgeeft.

Als je in plaats daarvan die energie direct aan de lucht afgeeft in een kleine kamer dan is die lucht binnen minuten ondraagbaar heet.

[Reactie gewijzigd door freaq op 22 juli 2024 14:03]

Hoewel je gelijk hebt dat laatste generatie GPUs (en CPUs, mijn 3700X doet 65W) niet zuiniger erop zijn geworden, gaat het wel een beetje op en neer. Weer dus mijn 3700X met 65W was toch behoorlijk zuinig. GPUs zijn over algemeen meer gaan gebruiken, tegelijk is dual GPU tijdperk wel weer voorbij. En een 4070 is toch een beetje zuiniger dan een 3070. Geen gigantisch verschil, maar zeker niet onzuiniger geworden.
Een 3700x doet geen 65watt maar
88watt stock als PBO gewoon aan staat.

Mijn 7800x3d heft ook een Max van 88watt dus verbruikt qua max niet meer dan mijn 3700X deed. In game is hij wel zuiniger dus dat CPU’s minder zuinig zijn klopt niet perse.
Bij de professionele kaarten van Nvidia zie je dat deze veel zuiniger zijn geklokt dan de consumentenkaarten, dus dat lijkt het probleem niet te zijn.

Volgens de geruchten worden deze Bx00-chips gemaakt met chiplets. Voor een individuele chip is er een optimale kloksnelheid qua efficiëntie. Bij een chiplet-architectuur kun je het aantal chiplets opschalen om zo een steeds krachtiger chip te maken. Maar elke chiplet kan dan nog steeds efficiënt geklokt worden. De kracht haal je dan uit het aantal chiplets.

Waar je dan vooral tegen aan gaat lopen is dat je op een gegeven moment de warmte niet meer kunt afvoeren. In elk geval verwacht ik dat deze Bx00-systemen waterkoeling gaan vereisen, wat overigens sowieso snel populairder wordt in datacentra.

Voor het trainen van AI-modellen en ander heel zwaar werk worden nu systemen gebruikt die bestaan uit een groot aantal samenwerkende computers, waarbij heel veel energie wordt gebruikt en kosten worden gemaakt voor het oversturen van data van het ene systeem naar het andere. Als een chiplet-ontwerp ervoor zorgt dat je minder samenwerkende computers nodig hebt en meer binnen 1 systeem wordt gedaan, dan hoeft de data minder ver gestuurd te worden, wat minder stroom vereist. Dus wat dat betreft zou de efficiëntie van het hele systeem dan juist moeten toenemen, al verbruikt elke losse computer dan meer.
Op zich correct, maar waarschijnlijk gaan ze niet minder systemen inzetten. Wel profiteren van de extra computerkracht.
Maar dat kun je de chipsindustrie natuurlijk niet aanrekenen. Hun doel is om meer rekencapaciteit te leveren per watt. Zij bepalen de vraag niet.
ik snap wat je wilt zeggen,
maar iets aan de manier waarop je het wilt aankaarten klopt niet.

wil je de 3090 vs 4090 aanhalen dan krijgt nvidia toch meer fps/watt uit de 4000 serie.
vb Forza Horizon5 , maar deze trend is bij de meeste games

The RTX 4090 outperforms the RTX 3090 by an impressive 62.4% in FPS, averaging 164 FPS in Forza Horizon 5 compared to the RTX 3090’s 86 FPS.

The RTX 4090 consumes approximately 13.8% more power than the RTX 3090, with a 420.8W power draw compared to the RTX 3090’s 366.3W at 98% usage.

dus 13.8% meer verbruik en 62.4% meer performance
en niet 50% meer stroomverbruik voor een prestatie verdubbeling

https://tech4gamers.com/rtx-4090-vs-rtx-3090/
Ik heb de resultaten van Metro gepakt hier uit de Tweakers.net reviews gepakt want die gebruikten ze voor fps en stroomverbruik. Klachten over die resultaten/metingen zal je bij de Tweakers.net redactie moeten neerleggen.
helaas,
voor kwaliteit moeten naar andere sites kijken,
zeker voor benchmarks en dieptetesten .

zeg ook niet dat het klachten zijn,
ik refereer gewoon naar jouw conclusie die net anders verwoord is dan de cijfers aantonen
Gesproken over kwaliteit van sites, je bron kan niet rekenen en kennelijk is jou ook niets opgevallen.

Sinds wanneer is 86fps vs 164fps een 62,4% verbetering? In mijn boek is 164 90,7% beter dan 86...

Daarnaast is het verbruik van 366,3W vs 420,8W geen 13,8% meer, maar 14,9% meer.

Als dergelijke basic rekenwerk al niet klopt, op meer dan 1 plek, dan neem ik het hele bron artikel niet meer serieus!
Sharp eye en kuddos voor het rekenwerk!
Ondanks vooruitgang van de techniek zal het stroomverbruik van AI echter nog een probleem blijven.
Probleem als in problematisch? Mss is het stroomverbruik van gamers ook problematisch? Als daar de rekenkracht per watt stijgt wordt dat toch ook ingenomen door nog snellere GPU's voor een betere game-ervaring? Natuurlijk niet maar het is toch niet dat AI ons in de problemen gaat brengen wat energievoorziening betreft? Of twee maten twee gewichten?

Het is voor AI efficiënter om grote rekeneenheden en geheugens lokaal te hebben draaien. Dus 50x 20 rekenkracht is efficienter dan 100x 10 rekenkracht. 100Gb+ per kaart etc. Dus in dat opzicht is het logisch dat ze kaarten op de markt brengen die meer verbruiken.

[Reactie gewijzigd door Coolstart op 22 juli 2024 14:03]

Het stroomverbuik van gamers is zeker problematisch.

In mijn huishouden worden alle stroombesparende maatregelen teniet gedaan door kinderen die opgewonden raken van pixels :-(

De threads hier op tweakers lezende staan ze daar zeker niet alleen in. Saillant detail: ik heb niet de indruk dat ze heel veel meer plezier halen uit een game door de overweldigende graphics. Het in het begin natuurlijk prachtig (moet ook ik toegeven), maar uiteindelijk is het een spelletje en zijn het de spelelementen die bepalen of het wel/niet lang leuk blijft.

Maar Hey, who cares: Paps en mams betalen de rekeningen.
De huidige generatie gebruikt 700W dus voor zover deze 1000W correct is dat ongeveer 40% meer.
Als daar een verdubbeling in performance tegenover staat is dat een stuk efficienter dan de meeste mensen verwachten na het lezen van de titel van dit nieuws bericht.
Maar alle info op t moment is gebaseerd op speculaties dus laten we wachten tot er echt harde cijfers bekend zijn.
Wat ik me afvraag, de verhouding van meer stroom verbruik ten opzichte van het efficiënter werken met ai. Hoe verhoudt zich dat eigenlijk?
In de commerciële sector betekent "efficiënter werken", "meer geld verdienen".
De verhouding tussen rekenkracht en stroomverbruik is daarin slecht één factor en is niet noodzakelijk doorslaggevend.
Is het nog wel een videokaart als het niet voor grafische toepassingen is gemaakt?
Dat is inderdaad een goede vraag. Zolang ze grafische chips gebruiken die vergelijkbaar zijn met de chips die op videokaarten zitten, dan lijkt de benaming GPU me nog wel acceptabel. Ik denk wel dat we in de toekomst meer ASIC's gaan zien, dus (efficiënte) chips die specifiek voor AI-taken ontwikkeld zijn. Maar voor het trainen van AI kan het alsnog wel zijn dat GPU's voorlopig het meest efficiënt zijn.

[Reactie gewijzigd door BlueTooth76 op 22 juli 2024 14:03]

Zou het nauwkeurig genoeg zijn om de term PPU, Parallel Processing Unit, te gebruiken?
ACM Software Architect @PHiXioN3 maart 2024 10:32
Nee en dat doet Dell dan ook niet, die noemt het nog wel een GPU. Wat ook al niet echt correct meer is sinds er allerlei andere toepassingen ontstonden die zo waren uit te werken dat GPU's daar ook heel geschikt voor zijn zoals (iig in het begin) minen van crypto en machine learning en ander AI-werk.

@JayStout dit is geen videokaart; er zit niet eens een videoaansluiting op ;)
Als er een IA op gaat draaien die videos genereert is het best toepasselijk.

Maar als ik het goed heb zijn de IA 'GPU's' begonnen als videokaarten in datacenters om meerdere users tegelijkertijd van een GPU te kunnen voorzien in een virtuele omgeving. En dat dat nog steeds kan met de huidige serie, maar dan met aanpassingen om IA wat meer te faciliteren (meer RAM bijvoorbeeld)
Misschien is het wat kort door de bocht.
Wat is eigenlijk het gemiddelde verbruik voor zo een ding in een datacenter?
Een H100 SXM5 zou een TDP hebben van 700W. Hou er rekening mee dat er ook een H100 PCI-e versie met lagere specs is die 350W TDP zou hebben. De opvolger van de H100 SXM5 is de B100 later dit jaar en kennelijk de B200 voor volgend jaar.
Waarom noemt men dit nog een videokaart ? Terwijl dat niet het hoofddoel van de kaart is.

Dat men video techniek ervoor gebruikt, zou toch niet de reden kunnen zijn om dit een videokaart te noemen ! Want dan zou b.v. alles waarin een CPU ( dus ook een videokaart ) zit een computer moeten heten.

Natuurlijk lijkt die 1000W erg veel, maar of men ( zoals nu ) meerdere kaarten parallel heeft of één grote, dat maakt m.i. ( bij hetzelfde vermogen <> output ) niet uit
Grote kans dat als blijkt, dat grote vermogens per kaart beter is, er daarna andere kaarten worden uitgebracht, die nog meer vermogen gaan verbruiken. Whats new ?

Persoon vind ik dit weinig nieuws waarde hebben. Zo kan men nu wel zeggen, dat alles m.b.t. AI groter en meer zal worden. Of dat nu m.b.t. de toepassing, vermogen of intelligentie ( om maar wat te noemen ) zal zijn, dat maakt niet uit.

[Reactie gewijzigd door PsiTweaker op 22 juli 2024 14:03]

Kom jij dan met een beter voorstel? GPGPU? Zit nogsteeds 't woordje graphics in. Tevens kan het woord/acroniem ook niet op "PU" eindigen. Dat refereert namelijk alleen naar de die(s), en niet alles daar omheen ((V)RAM zoals HBM of DDR, power delivery, enz.)
Ach, waarom niet. Zolang het 'ding' een eigen naam heeft, weet je ook gelijk waarvoor deze gemaakt en/of bestemd is.

Cpu

Gpu

AIPu

Om maar een simpel iets te noemen ;)

[Reactie gewijzigd door PsiTweaker op 22 juli 2024 14:03]

Ik weet niet of het ooit gaat wijzigen. Ik denk dat de logica er nog steeds is want de core is graphics en tegenwoordig maken steeds meer dingen toevallig gebruik van diezelfde unit. Maar in de basis blijft het dus een GPU. Het ding is dat een AIPu dus ook nog als GPU gebruikt kan worden, dus is het eigenlijk een GPU. Dat het extras heeft die heel goed inspelen op AI maakt het niet per se iets anders.
AIPu, spreek uit: "I Poo".

Overigens de term NPU, Neural Processing Unit, bestaat al.
Puur uit nieuwsgierigheid, maar waarom noemen we deze dingen nog GPU's als ze voor heel andere doeleinden ingezet gaan worden? Ik vraag me überhaupt af of deze kaarten/modules wel een video output hebben.
Dit terwijl een stofzuiger van Europa maximum 900 watt mag verbruiken.
Dat is niet zo'n goede vergelijking. Stofzuigers bleken flink meer vermogen te gebruiken dan nodig was, ze konden veel efficiënter. Door dit op te leggen in de wetgeving, moesten fabrikanten hun stofzuigers wel aanpassen en zie je ineens dat ze met ~40% minder stroom dezelfde zuigkracht kunnen halen.
Als je rekent dat ieder huishouden wel een stofzuiger heeft, heb je het alleen al in de EU over 200 miljoen stofzuigers die zuiniger konden. Zo'n datacenter is al zo efficiënt mogelijk om kosten te besparen en door de constante schaalverkleining van chips, worden ze ook steeds efficiënter, daar is geen EU voor nodig om dat op te leggen. Stofzuigerfabrikanten stonden al decennia stil in hun ontwikkeling, simpelweg omdat er geen noodzaak was, mensen kochten ze toch wel. Er werd wel eens wat nieuws uitgevonden (betere filters, nat zuigen, roterende borstels, etc) maar de motor bleef zuigen.
Maar hetzelfde geldt voor GPU’s. De fabrikanten lijken zich helemaal niet meer te richten op efficiënte GPU’s maar enkel op brute rekenkracht.

Als je ziet wat het verschil in efficiëntie is tussen een 4090 en 4070 dan kost dat laatste beetje extra rekenkracht van de 4090 belachelijk veel energie.
4070 en 4090 gaan dan wel over de consumentenmarkt. Juist daar zijn er voor de rijkere consument (die kiezen voor een 4090) weinig redenen om om stroomgebruik te geven. Het lijkt mij dat een eigenaar van een datacentrum meer druk zet op energie-efficientie, aangezien het daar een grote druk zet op de kosten en marges, maar ik laat me graag overtuigen.
Onzin, ze zijn ook keihard bezig met deze efficienter maken. Maar mensen willen ook graag sneller, en dat kan dus alleen maar door er meer energie in te stoppen. Gamers zitten niet te wachten dat een 4090 zo efficient wordt als nu een mobile GPU (met dezelfde rekenkracht), ja tuurlijk wel, maar niet als dat betekent dat er de komende 10 jaar geen krachtigere GPU's zouden komen.
Toch bijzonder dat dit argument nog steeds wordt aangevoerd.

Er was destijds een wapenwedloop aan de gang tussen de marketingafdeling. Hoe meer Watt, hoe meer beter. Het onzuinig maken van stofzuigers was het doel geworden.

Het is ook niet zo dat Nvidia en AMD tegen elkaar gaan opboksen met hoeveel stroom hun GPU's wel niet vreten toch.
Ja, een stofzuiger staat geen 24 op 24 te stampen…
Ik heb mijne opgevoerd en die draait nu een weekje stress test
Als het dan een werknemer kan vervangen is het altijd nog goedkoper. Die wil met de auto naar kantoor, waar het warm of koud moet zijn, computer met scherm aan, koffie etc.
En nu zit die thuis in de kou, omdat hij zijn energierekening niet meer kan betalen. :P }>
In de mainstream media wordt voornamelijk gefocust op het energieverbruik van het Bitcoin netwerk, maar men heeft eigenlijk nog geen idee van de schaal waarop het energieverbruik van AI in de komende jaren zal toenemen.
Ai heeft ook echt een doel, het verlagen van werknemer kosten.
Bitcoin is enkel een online casino. Nu stijgt het weer, en morgen stort het weer in.
Dat staat niet ter discussie, en bitcoin heeft ook een doel. Desalniettemin wordt het merendeel van de gespendeerd energie in beide gevallen niet voor die doelen ingezet.

Prima om AI te gebruiken om kanker te bestrijden, maar het wordt volgens mij vnl gebruikt om deep fakes te maken en zoekmachines slimmer te maken.

Ook leuk, maar we moeten ons in de huidige tijd wel afvragen of het de energie waard is.
bitcoin heeft ook een doel.
Een idioot achterlijk doel, dat ik het beste geval niets anders doet dan de macht van de ene elite naar de andere verschuift, en in het slechtste geval (wat we nu zien) enkel uitmond in een ponzi scheme of een wit wasmiddel.
Hier een kritische deep dive in crypto en nfts:
https://youtu.be/YQ_xWvX1n9g?si=cVK8Pj_qwyjo2_5C
Volgens mij is het.. oorspronkelijk doel van bitcoins om onafhankelijk van banken te zijn.

Vind ik een prima doel.
Ben je het nou wel of niet met me eens?
Kijk gewoon naar who's who in crypto: allemaal de oude "elite".
Grote winnaars in crypto zijn de Winkelvoss twins, Jordan Belfort, Chris Dixon, Peter Thiel: allemaal elitaire miljardairs die in Crypto een kans zien om van de top 0.01 naar de top 0.001% te springen, meer niet.

maar zelfs zonder naar de namen te kijken: stel gewoon de vraag "wie heeft er controle bij crypto?"
Antwoord: zij die de grootste mining rig hebben, oftewel zij die het meeste geld hebben om die hardware te kopen. En als je nu "MAAR PROOF OF STAKE!!!" gaat roepen: dat is nog erger: zij die veel geld hebben krijgen nog meer controle over het systeem.

Er is niets revolutionair aan crypto, het is gewoon een ander medium om hetzelfde spel te spelen, maar nu zonder regels en wetten die consumenten beschermen.

[Reactie gewijzigd door kiang op 22 juli 2024 14:03]

Wat wil je hiermee zeggen? Dat het een doel dient? Want dat blijkt hier niet uit. Als zij er voor kiezen tulpenbollen te gaan kopen maakt dat tulpenbollen nog steeds geen goed monetair systeem.
Je wil van een munt één ding, en dat is stabiliteit. Anders is het een beleggingsproduct zonder onderpand, ofwel een casino.
Dan heeft het nog steeds een doel toch? Zelfs al is het geen monetair systeem kan het alsnog een doel hebben zoals JorzoR aantoont. Dat er ook andere producten zijn die ditzelfde doel kunnen hebben maakt het niet nutteloos zolang er mensen gebruik van blijven maken.

Het kan zeker instorten maar zoals hetzelfde artikel van JorzoR aantoont kan dat met iets wat jij waarschijnlijk wel als monetair systeem beschouwt net zo goed gebeuren.
Het doel is om gokken te faciliteren?
Een normaal monetair systeem heeft als doel stabiliteit voor een overheid te geven (ivm belasting en staatsschuld). Dat is het enige doel wat een centrale bank normaal gesproken moet regelen (wat niet het geval is in Turkije iig).
Dat er ook andere producten zijn die ditzelfde doel kunnen hebben maakt het niet nutteloos zolang er mensen gebruik van blijven maken.
Dit geeft juist aan dat het geen inherent doel dient. En daarmee gebakken lucht is.

Het punt dat het kán instorten is geen argument. Hier gaat het om de kans dat het gebeurt. Met redelijk monetair beleid is die namelijk kans vrij klein. Met crypto is maar het net hoe de wind staat.
Misschien hebben we een verschillende interpretatie van de definitie van het woord doel. Dat jij het niet eens bent met het doel wat iemand met bitcoin heeft maakt het niet minder valide.

Op het moment dat hele volksstammen er gebruik van maken om bijvoorbeeld depreciatie van de nationale munt te omzeilen heeft het iig voor hun wel een doel en zolang het niet klapt is het voor hun werkbaar. Dat er hoge risico’s aan zitten en dat er misschien betere/verstandige alternatieven zijn doet daar in mijn ogen niet aan af.
Bitcoin zal vast een doel hebben, maar om daar nou de stroom tegenaan te gooien van een heel land dan schiet het zijn doel toch voorbij.

AI heeft nog een toepassing en kan de mensheid echt helpen.

Ik vind het een beetje hetzelfde als auto's vs vuurwerk discussie.
Ja en jij snapt blijkbaar het verschil niet tussen een persoonlijk doel dienen en inherent een doel hebben.
Misschien snap ik je oorspronkelijke reactie op dat Reuters artikel idd niet goed, ik dacht dat je met doel verwees naar het “persoonlijke” doel van de mensen die de btc kopen om de depreciatie te ontwijken.
Het verlagen van werknemerskosten... met andere woorden: het creëren van meer werkelozen?
Ja en nee. Het maken van dezelfde of betere producten met minder mensen. Dit heet productiviteitsverhoging, en het is iets waar we sinds het begin van de industriele revolutie (arguably eerder) met z'n allen mee bezig zijn. Tot nu toe heeft dat er toe geleid dat welvaart steeds hoger wordt en mensen die daardoor geen baan meer hebben tijd hebben om interessante nieuwe banen en werkvelden te creëren. Gezien sommige banen ook zeker nog niet overgenomen kunnen worden door machines, bv in de gezondheidszorg of in de horecasector, waar steeds meer vraag is naar personeel, is er ook geen enkele reden om aan te nemen dat dit een negatief iets is.

Dus tenzij jij graag terug gaat naar de middeleeuwen, toen 80-90% van de samenleving de hele dag moest zwoegen om zonder enige technologische hulpmiddelen (want die creëren werkelozen) een klein stukje grond te onderhouden, zou ik zeggen "hoera, productiviteitsverhoging!"

[Reactie gewijzigd door Snoitkever op 22 juli 2024 14:03]

misschien kan Ai, logischer management beslissing maken...dat geeft gelukkiger uitvoerende ;)
Ai heeft ook echt een doel, het verlagen van werknemer kosten.
Bij ons niet, ik heb liever dan hun rendement omhoog gaat. En wanneer ze met AI 3x zoveel omzet draaien, dan kan ik hen rustig anderhalf keer zoveel salaris betalen. Dan gaan m'n kosten flink omhoog, maar mijn winst nog veel meer. En daar word ik weer heel blij van.
Wij snijden vooral in personeel voor standaard ondersteunde dingen waar extra fte niet nodig is voor hogere omzet. Voor bepaalde zaken kan het idd worden ingezet om de omzet per fte weer te verhogen.
Al die miljoenen mensen met zware GPU's die elke dag aan het gamen zijn zorgt anders ook voor een behoorlijke energieconsumptie, over "een doel" gesproken. ;-)
Als je dag in dag uit aan het werk bent, of het nu fysiek of mentaal is, dan is ontspanning wel belangrijk. Een eindje wandelen of een potje gamen werkt ontspannend (wellicht schiet spelletjes niet, maar sims of factory games vind ik erg prettig om even te ontvluchten van de dagelijkse sleur of stress.
24x7 een kilowatt

Of 2 uur 3 dagen per week 400 watt is wel een heel verschil
RTL Z had vorig jaar wel een itempje over het stroomverbruik van AI:
https://www.youtube.com/watch?v=3hZYENzQzNk

Persoonlijk vind ik het nog moeilijk in te schatten of het extra stroomgebruik voor de inzet van AI te rechtvaardigen is.
Wanneer het ingezet wordt voor "serieuze zaken" en de uitkomsten daadwerkelijk helpen kwesties op te lossen (op bijv. medisch vlak), dan lijkt me dat zeker de moeite waard.

Maar als het is om de mensheid te voorzien van miljoenen grappig bedoelde filmpjes en vage deep fakes, dan vraag ik me af of we die energie niet beter voor nuttiger zaken moeten reserveren aangezien we nog steeds niet 'klimaatneutraal' stroom kunnen opwekken.
De meeste toepassingen krijgen geen mediaaandacht maar die brengen echt wel wat.
De meeste toepassingen krijgen geen mediaaandacht maar die brengen echt wel wat.
Dat klinkt goed. Noem ze eens?
https://www.telefonica.co...-artificial-intelligence/ Hier zijn er al 15 die weinig aandacht gekregen hebben maar doorgaans wel een meerwaarde hebben.
https://archive.ph/2024.0...ce-google-scott-galloway/

kunnen lekker niks gaan doen met z'n allen binnenkort :)
Ja ik had ook veel liever gezien dat het ingezet zou worden voor serieuzere zaken. Maar als het alleen daar voor gebruikt zou worden, was AI dan ook zo snel gegroeid?
Helaas leven we in een wereld waarbij geld altijd de drijfveer is voor ontwikkeling.
Verwijderd @3dfx3 maart 2024 14:26
Github copilot doet anders precies wat een pair programming doet, met 2 man de code bouwen, met sommige taken heb je 50% meer productiviteit voor slechts 10 dollar per maand. Daar zitten de stroomkosten en winst ook in.
Het is en en. Dat is het venijnige.
Zal enorm toenemen. Maar mensen die denken dat we minder energie gaan gebruiken leven beetje in een droom wereld. Het wordt juist steeds meer. Over 200 jaar verbruiken we 1000x zoveel energie dan nu. Indirect en direct meetellen.
Das wel zo veilig, om 200 jaar te nemen... Niemand die dat zal controleren op juistheid...

Maar ik hoop niet dat je gelijk krijgt... Dan worden er 1 en al energie slurpende wezens..
200 is erg lang, ik hoop echt dat de explosieve stijging van nu ooit zal gaan afvlakken.

Autos gaan ook niet meer elk jaar harder rijden.
Zodra bijvoorbeeld kern fusie mogelijk is (waar nu met AI best mooie stappen gemaakt worden) en overal zonnen, wind en geo energie bestaat maakt dat allemaal weinig uit.
Het verschil is dat bij AI toepassingen als het veel energiezuiniger kan ze allemaal erop zullen springen. Bij Bitcoin kan decentrale consensus veel energiezuiniger, maar dat willen ze niet. Bitcoin is speciifek gemaakt om veel energie te gebruiken (zuinigere miners zorgen alleen voor dat er meer miners gebruikt worden, niet dat energieverbruik naarbeneden gaat). En natuurlijk, als je morgen alle AI hardware 2x zo zuinig maakt, zal er ook wel iets een effect zijn dat er meer gebruikt wordt, tegelijk wordt er dan ook meer gedaan mee. Bij Bitcoin gaat de difficulty omhoog, en zitten ze nog steeds op hun 7 TPS.
Meer biomassa centrales des te sneller lijkt onze aarde op de wereld van The Matrix ;(
De grootste supercomputers te wereld deden tot voorkort eigenlijk massaal finite element / finite difference modeling, maar tegenwoordig zijn de grootste clusters steeds meer op machine learning gericht, dus dat energieverbuik zal aanzienlijk zien.
Maarja, AI is zinvol, bitcoin is tegenwoordig voor de meeste niets meer dan speculatiemateriaal.
Dat zal zeker toenemen, en door nieuwe innovaties ook weer afnemen. Maar AI heeft meestal wel een nuttig doel.

Bitcoin is alleen voor belasting ontduiken en om criminelen mee te betalen.
Het ene getroll kan het andere getroll verwachten? ;)

Als een Pro-crypto* persoon zit te jammeren: "Maar zij doen het ook!" in een non-crypto nieuwsbericht, dan kan je er vuur op zeggen dat iemand daar heel erg bot op reageert.

Daarnaast grijp je waarschijnlijk naar de resultaten van onze landgenoot Alex de Vries, maar die zegt letterlijk (4 maanden geleden) dat met een paar jaar pas AI net zoveel zou verbruiken als Bitcoin vandaag.
If not managed properly, AI could be responsible for as much electricity consumption as Bitcoin is today in just a few years’ time.
Dat betekend dus dat alleen al BTC al veel meer verbruikt dan alle AI. Nu mijn vraag, hoeveel mensen gebruiken BTC vs hoeveel mensen gebruiken AI, ik zou zeggen een ongelooflijke hoeveelheid meer mensen. Direct en indirect. Bij Crypto is dat gebruik echter heel erg beperkt, zowel direct als indirect. Ik ga geen discussie beginnen over het 'nut' van Crypto vs het 'nut' van AI, maar het mag duidelijk zijn dat de ene user groep niet de andere is en zeer zeker niet in formaat van die groep.

*https://gathering.tweakers.net/forum/list_messages/2092110

Bron:
https://www.sciencedirect...abs/pii/S2542435123003653
https://www.linkedin.com/...-7118896246739595264-krFz

[Reactie gewijzigd door Cergorach op 22 juli 2024 14:03]

Dat zegt Alex de Vries niet. Hij zegt dat wanneer het energieverbruik van AI-datacentra (grotendeels in handen van de grote spelers, zoals Google en Microsoft) niet goed gemanaged wordt, het binnen een paar jaar evenveel elektriciteit verbruikt als Bitcoin-mining (dat grotendeels door consumenten gebeurt) nu.

De Vries zegt nergens dat het wel meevalt met het energiegebruik van AI-datacentra en dat het "een stuk minder erg" is dan Bitcoin-mining. Integendeel, je zou zijn commentaar zelfs als waarschuwing kunnen zien.

edit: De waarheid is hard :+

[Reactie gewijzigd door PCG2020 op 22 juli 2024 14:03]

Sorry na 5 min uitgezet. De hele teloorgang van maatschappijen volledig de schuld geven van het geldsysteem om vervolgens te claimen dat bitcoin al die problemen oplost…… dat laatste heb ik niet eens gezien maar dit is zo voorspelbaar. Het is alsof je luistert naar een stichter van een nieuw geloof.
Bitcoin of welke crypto dan ook is momenteel niks meer dan een speculatie middel. Ik ga niet claimen dat het vooral door criminelen wordt gebruikt. Maar het is praktisch heel goed mogelijk om grote sommen geld te verstoppen in volledige openheid. Ja de ledger is volledig openbaar, maar niemand weet wie er achter welke wallet zit
Het probleem is alleen dat hij geen historische feiten presenteert maar een zeer eenzijdige eigen interpretatie geeft van de geschiedenis die toevallig perfect past in het geloof dat hij zelf predikt, namelijk bitcoin is de redder van mensheid en beschaving. Om maar meteen wel een feit te presenteren, de teloorgang van alle maatschappijen in de geschiedenis is niet veroorzaakt door bijdrukken van fiat geld. Daar liggen veel complexere factoren aan ten grondslag.

Het fiat geld systeem is verre van perfect, maar dat is bitcoin ook niet. Verder de gedachte dat bitcoin alleen maar meer waard wordt is ook gewoon fout. Net als met echt geld hangt de waarde van geld niet alleen af van hoeveel er wordt bijgedrukt. Ook het aantal gebruikers is van groot belang. Als de groei van het aantal BTC groter is dan de groei van het aantal gebruikers (handelsvolume is beter) dan daalt de waarde gewoon. De wet van vraag en aanbod geld ook gewoon voor bitcoin.
Bitcoin is aan hetzelfde "mankement" gebonden; het heeft de waarde die men eraan geeft.
De dollar kan net zo goed onbeperkt in waarde stijgen. Alleen, wat kan je er dan mee? Vrij weinig. Daarom is er ook een optimum zodat er vrije handel ontstaat en je naast de dure (luxe) producten ook de goedkope allerdaagse producten (zoals brood) kunt kopen.
Als jij voor 1 bitcoin met een 100k usd waarde een brood kan kopen, dan hebben we daar ook een andere term voor: inflatie. Bij bitcoin hebben ze daar ook iets op moeten verzinnen, waardoor ook kleine coupures mogelijk zijn. Zodat de handel door blijft gaan en het zijn waarde blijft behouden.

Bitcoin is enkel een extra onderdeel van de economie. Net zoals de huizenmarkt dat in china is. Je kan goede tijden hebben, maar ook slechte. En voor bitcoin zijn er genoeg dreigingen om rekening mee te houden die voor een crash kunnen zorgen, waardoor je 0k waarde hebt.
Bitcoin is totaal niet aan hetzelfde mankement gebonden.

Dat mankement, welke jou duidelijk niet bekend is, is namelijk inflatie gedreven door verwatering van de valuta door onbeperkt bij te drukken.

Kijk de video gewoon even voordat je tegen mij in gaat met argumenten die niet kloppen.
Bitcoin is een algoritme, dat kan goed uitpakken maar ook verkeerd, dat het een waarde heeft is al bijzonder, waarom fluctueert het bijvoorbeeld als een malle, zolang ze dat niet onder controle krijgen, is het een casino...
Het is een onweerlegbaar feit dat valuta zoals de euro en de dollar uiteindelijk hun waarde verliezen, terwijl Bitcoin, in vergelijking met deze fiatvaluta, onbeperkt in waarde kan stijgen.
Mijn NFTs van een aap kunnen ook onbeperkt in waarde stijgen, betekend niet dat ze dat doen.
Als je dit niet begrijpt en in ontkenning blijft, zelfs wanneer Bitcoin een waarde van 100K bereikt, misleid je alleen jezelf.
Numbers go up is geen argument. Al helemaal niet bij iets wat minder fatsoenlijke lange termijns architectuur heeft als Doge.
Door bewust de andere kant op te kijken en zelfs de visie van figuren zoals de CEO van Microstrategy belachelijk te maken, ontken je de realiteit.

Micheal Saylor benadrukt ook het onderscheid tussen mensen: zij die bereid zijn honderden uren te investeren om de diepgaande aard van Bitcoin te begrijpen en zij die na vijf minuten een video van een expert afwijzen omdat ze denken het beter te weten.
En de CEOs van bedrijven die wel hun bedrijf runnen en niet focussen op Tweeten van AI generated Bitcoin plaatjes? Moet je die niet ook serieus nemen?

Overigens als je honderden uren nodig hebt om de "diepgaande aard" van Bitcoin te begrijpen, dan vraag ik me vooral af wat je die honderden uren doet.
Behalve dat die NFT van apen ook naar nul gaan. Net als Bitcoin uiteindelijk :)
Naar o uitgedrukt in wat?
Want als je euro en dollar bedoeld, snap je nog steeds niet dat iets wat niet eindeloos verwaterd, zoals jouw aap plaatjes en bitcoin, altijd meer waard blijven uitgedrukt in fiat dat zelf wel eindeloos zal verwateren.

Zo lang je dit basis principe niet begrijpt, zal je nooit zien dat een store of value, waarvan de supply wiskundig is vastgelegd, altijd in waarde zal toenemen relatief aan fiat dat uiteindelijk in een inflatie death spiral zal verdwijnen.

Logisch dan ook dat je Bitcoin niet op waarde kan inschatten.
Naar o uitgedrukt in wat?
Hoe is dat relevant? Nul in alles. Niks waard. Nada. Noppes.

Punt is dat jij denkt dat alles wat schaarste heeft, waarde heeft. Maar dat is niet zo. Of ben je al all-in op Nano ook?
Punt is dat jij denkt dat alles wat schaarste heeft, waarde heeft.
In ieder geval, per definitie altijd meer waarde dan 0, uitgedrukt in iets dat niet schaars is zoals fiat. De euro en dollar verwateren elk jaar meer en ze zullen ooit vervallen in hyperinflatie.

Op dat moment is jouw aap plaatje uitgedrukt in die gefaalde fiat, nooit nul.
Ik snap precies wat het is: een verhandelbaar piramidespel.

Leuk voor speculanten en, door het vrij anonieme internationale element, leuk voor criminele activiteiten.
Ik zal je vanaf nu jaarlijks herinneren aan deze uitspraak. :)
Dat de waarde vaak stijgt of dat jij/men er winst mee behalen kan, verandert niks aan wat het feitelijk is.

En je mag me daar prima jaarlijks aan herinneren, tot dan!
[...]
dat je nog (steeds) niet echt snapt wat Bitcoin is.
'wat bitcoin zou kunnen zijn'

En daar wrikt de schoen ;)
Ik volg bitcoin vanaf 2014, en heb jaren de positieve kanten van crypto verdedigd. Maar ik kan op dit moment het toch echt niet loslaten dat crypto in zijn huidige vorm vooral draait op hebberigheid.

Het gros van de mensen die er geld in hebben zitten doen dit niet als een store of value, maar vooral voor speculatie.

Proof of work loopt geheel uit de hand qua energieverbruik en staat in geen vergelijking met het nut wat het de wereld brengt.

Ransomware zou niet zo een probleem zijn zonder de anonimiteit die crypto biedt.

En al was vroeger de snelheid een groot voordeel, daar hebben de banken grote stappen in gemaakt, waarbij ook internationaal steeds sneller gaat.

Kosten voor een transactie zijn voor normale bedragen ook niet meer interessant.

Dan hou je alleen nog het deel over dat het een ruilmiddel bied bij landen waarbij de officiële valuta en banken te onbetrouwbaar zijn. Maar vaak wordt er dan naar andere valutas gekeken zoals dollars. Ik zag vooral hier wel kansen voor crypto, maar ik denk dat als crypto echt een groot deel van het betaalverkeer dreigt overte nemen dat een land het gewoon verbied. En dan valt het nut voor de gewonen burger weer weg.

Ik vind het een interessant onderwerp om in de gaten te houden, maar ik ben zelf.een stuk minder optimistisch er over dan in het verleden .
Bitcoin is geen betaalmiddel maar een store of value. Het is het beste store of value dat er is.

Enige argument dat er altijd was was de onzekerheid, zouden overheden het gaan verbieden of niet?
Dat is nu met de ETF's niet meer een issue, pas nu zal het grote geld instromen.

Het zou jammer zijn als je nu afhaakt na al jaren actief geweest te zijn met Bitcoin. Geef het nog een kans, je zal het niet betreuren ;)
Datgene waar je je brood mee koopt en waarnaar jij later je bitcoin naar wilt laten overzetten? ;)

Er zijn genoeg bedreigingen voor bitcoin om rekening mee te houden. Het wordt verboden (zie china), quantumcomputers breken de encryptie, teveel raakt verloren (geen toegang tot wallet, usb met wallet verloren, erfgenamen die niet weten dat hun ook bitcoin hebben geërfd, etc), weer een cryptobeurscrash, etc.
Percentueel wordt er maar heel weinig fraude gepleegd met bitcoin. Tot 2009 was 100% van die fraude in normaal geld, zoals de Euro en de Dollar. Het is logisch dat het zich een beetje verplaatst naar crypto coins, waar geld is zijn criminelen. Maar aangezien de bitcoin blockchain vanaf block 1 openbaar is en niet te muteren, is het voor criminelen minder interessant dan je denkt. Bij contant geld kan je nog een spoor van de transacties uitwissen, bij bitcoin staat dat spoor voor altijd op de blockchain.
Ja want van elke transactie wordt die ook aangemerkt als een fraudegavrl natuurlijk :+
Bitcoin wordt natuurlijk vooral als gok element gekocht. Verder is het eigenlijk nergens goed voor.
Verder is het eigenlijk nergens goed voor.
Dat geldt toch ook voor een bosje bloemen? Je kijkt er een week naar en gooit het weg. Kost gruwelijk veel energie om bloemen te kweken en te transporteren, en na een week gooi je ze weg om weer nieuwe te kopen.

Voetbal, 22 man die achter een bal aanrennen en mensen betalen er voor om daar naar te kijken. Ze kopen zelfs shirts met hetzelfde rugnummer er op! En oh wee wanneer je in de verkeerde stad het verkeerde shirt draagt...

Rare jongens die mensen 8)7
Maar als ze nou gewoon die hele nutteloze blockchain weggooien, en dan met een paar servers die crypto koersen doen, dan bespaart dat enorm :+
Bitcoin is wel te muteren, het is alleen praktisch heel moeilijk uitvoerbaar.
Da's afhankelijk van of je meer dan 50% van de hash rate bezit. Als ik het me goed herinner is 45% van de hash rate van Bitcoin momenteel in het bezit van een en dezelfde groepering, die dus niet al te ver van het punt zitten dat ze, omdat ze meer dan de helft van de hash rate bezitten, kunnen bepalen welke transacties wel en niet doorgang vinden, de zogenaamde 51% attack. In die zin is Bitcoin, in tegenstelling tot de marketing praat van de Bitcoin Maxi's, niet echt gedecentraliseerd. Geografisch misschien wel, maar daar heb je in deze niet veel aan.
Op het einde moet dat niet 'nvidia GTC' zijn? ipv nvidia GTX 😅
Ik geloof best dat deze kaart ondanks die 1000 watt aan verbruik toch op papier efficient zal zijn echter hoe je het ook bekijkt blijft het 1000 watt. Dan erbij te bedenken dat in zo'n datacenter een hele batterij van deze kaarten geplaatst zullen worden, tjonge. Daar is dan heel wat groene stroom voor nodig en heel wat zonnepanelen en windmolens.

Op dit item kan niet meer gereageerd worden.