Door Koen Vervloesem

Freelanceredacteur

De zoektocht naar zuinige AI

Biologische neuronen bieden inspiratie

15-03-2022 • 06:00

46

Multipage-opmaak

Katten en bananen herkennen

Neurale netwerken vormen een van de grootste succesverhalen van het laatste decennium, maar het trainen en laten werken ervan kost veel energie. Onderzoekers ontwikkelen daarom gespecialiseerde hardware die deze berekeningen energiezuiniger kan uitvoeren.

Een (kunstmatig) neuraal netwerk is losjes gebaseerd op de werking van onze hersenen. Neuronen zijn met elkaar verbonden en bootsen de werking na van hun biologische evenknieën: de zenuwcellen. Elke connectie tussen neuronen heeft een gewicht. Dat kan positief of negatief zijn, wat de invoer een stimulerende respectievelijk remmende invloed geeft. Een neuron telt de waarden van alle binnenkomende verbindingen op, elk vermenigvuldigd met hun gewicht. Het resultaat wordt dan weer doorgegeven aan andere neuronen.

In de praktijk werken neurale netwerken in lagen, waarbij neuronen in een laag verbonden zijn met neuronen in de laag ervoor en de laag erna. Er zijn dan een invoer- en een uitvoerlaag, met allerlei tussenliggende lagen. We spreken van deep learning als dat aantal lagen groot is. Voor beeldherkenning bijvoorbeeld bestaat de invoerlaag uit de pixels van een foto, terwijl de neuronen in de uitvoerlaag de te herkennen categorieën voorwerpen (kat, hond, tafel, banaan) voorstellen.

Neurale netwerken
Een neuraal netwerk bestaat uit een invoerlaag, een of meer verborgen lagen en een uitvoerlaag. Bron: Colin M.L. Burnett, CC-BY-SA 3.0

Energieslokoppen

Deep learning is in het jongste decennium een succesverhaal geworden in allerlei toepassingen. Die lopen uiteen van beeldherkenning en spraakherkenning tot aanbevelingen van onze favoriete streamingdienst, de analyse van medische beeldvorming en een taalmodel zoals GPT-3, dat min of meer realistische verhalen kan verzinnen. Deze grote neurale netwerken vragen echter veel rekenkracht en daardoor ook veel energie, met de bijbehorende CO₂-uitstoot.

Voor dat energiegebruik moeten we naar twee fasen kijken. Enerzijds moet je een neuraal netwerk trainen op een (meestal grote) dataset; dat is het leerproces. Na de training heeft het netwerk geleerd om een taak uit te voeren. Een groot Transformer-netwerk voor taalverwerking trainen heeft een geschatte CO₂-uitstoot die gelijk is aan die van vijf auto’s in hun volledige levensduur. Dat is veel, maar het trainen moet normaal gezien maar één keer gebeuren. De volgende stap, die inferentie heet, is dat het neurale netwerk de taak die het heeft geleerd, keer op keer uitvoert. Elke keer dat je een vraag stelt aan Siri, produceert dat enkele grammen CO₂. Doe je dat miljoenen keren, dan kan het energiegebruik dat van de training overstijgen.

Geoptimaliseerde hardware

De laatste jaren is er veel onderzoek gedaan om de inferentiestap uit te voeren op energie-efficiëntere hardware, die hiervoor geoptimaliseerd is. Milieuoverwegingen zijn niet de enige reden daarvoor. In veel toepassingen zit je met beperkingen op het gebied van energie. De evolutie naar AI at the edge, waarbij de inferentie op de apparaten zelf uitgevoerd wordt in plaats van op servers in de cloud, maakt die beperkingen nog belangrijker. Drones en autonome voertuigen werken op accu's. Hoe energie-efficiënter de inferentie werkt, hoe langer ze op een acculading kunnen doorgaan. Ook in telefoons zie je al neural processing units, of npu's, verschijnen. Dat zijn coprocessors die neurale processen sneller uitvoeren om de hoofdprocessor te ontlasten. Denk maar aan de Neural Engine in de iPhone en de Google Tensor van de Pixel 6. Die laatste bevat zowel een cpu als een gpu en Tpu, of Tensor processing unit.

Ook in onze huiskamers zijn dergelijke toepassingen mogelijk. Axel Nackaerts, programmamanager AI bij het Vlaamse onderzoekscentrum imec, geeft het voorbeeld van een robotstofzuiger. “De slimmere modellen herkennen rondslingerende sokken of uitwerpselen van dieren en ontwijken die obstakels. Een stofzuigbeurt duurt bij die slimmere modellen echter opmerkelijk langer dan bij de dommere versies, omdat de objectherkenning veel energie gebruikt. Als je die berekeningen door geoptimaliseerde rekeneenheden kunt laten uitvoeren, werkt de robotstofzuiger bijvoorbeeld tien minuten langer op een acculading.”

Nackaerts wijst op een andere belangrijke limiet in veel toepassingen: warmtedissipatie. “De processors in een industriële robot die in een explosieve omgeving werkt, zijn volledig afgeschermd en kunnen dus weinig warmte kwijt. Ook de computers in een wagen zitten volledig ingepakt in een dikke siliconenlaag. In zo’n situatie moet je dus onder een specifieke temperatuur blijven. Hoe energie-efficiënter de processor werkt, hoe meer rekenwerk hij onder die beperkingen nog kan uitvoeren.”

Axel Nackaerts, imec
Axel Nackaerts is programmamanager AI bij het Vlaamse onderzoekscentrum imec.

Gepulste neurale netwerken

Klassieke neurale netwerken hebben altijd een belangrijk aspect van hun biologische evenknieën genegeerd. De neuronen in onze hersenen zijn niet continu actief, maar vuren pulsen af, soms lang niet en soms snel na elkaar. Als ze geen puls sturen, gebruiken ze geen energie. Deze pulsen zijn een belangrijke reden dat onze hersenen een factor miljoen energie-efficiënter zijn dan kunstmatige neurale netwerken.

Eén aanpak voor energie-efficiëntere AI vinden we in gepulste neurale netwerken, of spiking neural networks, die wél gemodelleerd worden met pulsen zoals in onze hersenen. Prof. Sander Bohté van het CWI doet al meer dan twintig jaar onderzoek in dit domein en heeft het de laatste jaren in een stroomversnelling zien komen.

001, Bohté, Sander, hoogleraar FNWI
Sander Bohté doet al meer dan twintig jaar onderzoek naar gepulste neurale netwerken. Foto: Dirk Gillissen

“Een belangrijke ontwikkeling is dat er nu daadwerkelijk neuromorfische chips gebouwd worden, zoals de Loihi-processors van Intel”, zegt Bohté. “Een tweede factor is dat de algoritmen ook beter werken. We hebben tegenwoordig populaire frameworks zoals PyTorch en TensorFlow om die netwerken te trainen.”

Volgens Charlotte Frenkel, die als postdoctoraal onderzoeker verbonden is aan de Universiteit Zürich en ETH Zürich en binnenkort assistant professor bij TU Delft wordt, kunnen neuromorfische chips al veel efficiënter zijn dan gpu’s en Tpu’s. Zo verwijst ze naar het artikel 'Advancing neuromorphic computing with Loihi: a survey of results and outlook'. Daarin wordt besproken hoe gepulste neurale netwerken op de Loihi-processors efficiënter zijn dan cpu’s en gpu’s voor een diverse verzameling taken.

Gepulst neuraal netwerk
In een gepulst neuraal netwerk verwerken de neuronen pulsen en sturen ze ook pulsen uit, net zoals in onze hersenen.

Uitstekend voor signaalverwerking

Gepulste neurale netwerken lenen zich uitstekend voor signaalverwerking. Zo publiceerden CWI-onderzoekers Bojian Yin en Sander Bohté vorig jaar samen met hun collega Federico Corradi van imec een wiskundige doorbraak waarmee ze gebaren, woorden en een ecg-signaal beter en energiezuiniger konden herkennen dan traditionele diepe neurale netwerken.

“Keywordspotting is een typische toepassing voor gepulste neurale netwerken”, legt Bohté uit. “Je telefoon moet continu luisteren of je ‘Hey Google’ zegt, en dat mag dus niet te veel energie gebruiken, om de accu te ontlasten. Telefoonfabrikanten werken nu al aan neuromorfische chips hiervoor en ik verwacht dat de eerste chips over een jaar of twee al in telefoons worden geïntegreerd.”

Charlotte Frenkel
Charlotte Frenkel specialiseert zich
in het ontwerp van neuromorfische chips.

Frenkel verwacht wel een grote competitie in dit soort toepassingen. “Voor taken zoals keywordspotting en de verwerking van biosignalen worden er al heel wat klassieke versnellerchips voor machinelearning ontwikkeld, die moeilijk te verslaan zijn. Maar het onderzoek naar neuromorfische versnellers is nog jong. Ik hoop dan ook dat de competitieve voordelen van neuromorfische chips voor deze toepassingen in de komende jaren in praktijktests aangetoond worden.”

Een toepassing waarvan Frenkel wel op korte termijn veel verwacht, zijn event-based camera’s. “Conventionele camera’s sturen vaste frames met pixels door op vaste intervallen. In event-based camera’s daarentegen genereren alle pixels onafhankelijk van elkaar een puls bij een verandering in contrast. Dit soort camera’s kan dus heel nauwkeurig snelle scènes opnemen met weinig vertraging. Bovendien wordt de informatie efficiënt gecodeerd doordat alleen bewegende pixels doorgegeven worden. Neuromorfische chips die de uitvoer van dit soort camera’s efficiënt verwerken, zie ik op heel korte tijd commercieel doorbreken.”

Veel geheugen nodig

Neuromorfische chips die geoptimaliseerd zijn voor gepulste neurale netwerken, hebben een belangrijk nadeel dat nog een praktische uitdaging vormt, zegt Bohté. “Gepulste neurale netwerken hebben veel geheugen nodig om hun gewichten voor te stellen en dat moet zich dicht bij de neuronen bevinden. Geheugen neemt bovendien veel chipoppervlakte in. Het wordt dan duur om grotere chips te maken.”

Heel wat actieve onderzoeksdomeinen rond neuromorfische chips leggen zich dan ook toe op dit geheugen, ziet Frenkel. “Zo kunnen we de resolutie van de gewichten van de synapsen verlagen, waardoor er minder geheugen nodig is. Ook schema’s met schaarse verbindingen tussen de neuronen vallen in dit kader, net als onderzoek naar memristors als alternatieve geheugencomponent.”

Verder is ook nog niet duidelijk hoezeer neuromorfische chips op een biologisch brein moeten lijken, meent Frenkel. “Welke componenten van het brein leiden tot efficiënte berekeningen en welke zijn gewoon artefacten van de biologische evolutie? Moeten we sommige van die componenten aanpassen om meer voordeel te halen uit het siliciumsubstraat, dat andere eigenschappen heeft dan het biologische substraat van ons brein? Het zijn allemaal open vragen en elke onderzoeksgroep naar neuromorfische chips zal hierop met verschillende antwoorden en strategieën komen.”

Analoge berekeningen

Een andere manier voor energie-efficiëntere berekeningen presenteerde imec onlangs in samenwerking met de KU Leuven in Diana, een chip die een digitale en een analoge coprocessor combineert. De analoge coprocessor van Diana, of Digital and Analog Accelerator, is geoptimaliseerd voor de multiply-accumulate-bewerking, waarbij twee getallen worden vermenigvuldigd en bij een derde getal worden opgeteld. Multiply-accumulate is een belangrijke bewerking in convoluties, een onderdeel van veel neurale netwerken.

“Niet alle neurale netwerken worden door de analoge coprocessor versneld”, beklemtoont Nackaerts. “GPT-3 voor taalverwerking bijvoorbeeld heeft niet de juiste structuur. Maar neurale netwerken in computervisie, bijvoorbeeld voor objectherkenning, lenen zich doorgaans uitstekend voor de chip doordat ze veel multiply-accumulatebewerkingen gebruiken.”

DIANA imec
Diana van imec combineert een digitale en een analoge coprocessor.

Benaderend juist

Marian Verhelst
Marian Verhelst is onderzoeksdirecteur bij imec en
hoogleraar micro-elektronica aan de KU Leuven.

Het speciale aan de analoge coprocessor is dat hij, zoals de naam al zegt, berekeningen analoog uitvoert. “De analoge rekeneenheden rekenen niet perfect. Ze hebben een precisie van ruwweg 6bit”, zegt prof. Marian Verhelst, onderzoeksdirecteur bij imec en hoogleraar micro-elektronica aan de KU Leuven. “Maar voor veel toepassingen is niet meer precisie nodig, doordat de informatie in het volume aan data zit en niet zozeer in specifieke bits. Dat is vaak het geval bij beeldverwerking.”

Een van de bedrijven die nu al analoge coprocessors voor AI verkopen, is Mythic. Toch zie je dit soort processors nog niet zo vaak. Volgens Nackaerts hebben ze hun naam tegen. “Analoog is niet precies en in het traditionele chipontwerp heeft de focus altijd gelegen op zoveel mogelijk precisie. Het idee dat veel algoritmen even goed werken met minder exacte berekeningen, moet nog in de geesten rijpen. Door de structuur van neurale netwerken maakt het niet uit dat de berekeningen niet precies zijn, omdat er zoveel neuronen zijn die elk een klein deeltje van de berekening uitvoeren.”

Factor 100 efficiënter

De analoge coprocessor van Diana rekent gemakkelijk een factor 1000 energie-efficiënter dan de klassieke digitale processors, maar uiteraard bestaat je toepassing uit meer dan deze berekeningen. De gegevens moeten ook naar de rekeneenheden verplaatst worden. “Het hangt enigszins van de toepassing af wat dan de totale energie-efficiëntie is, maar doorgaans haal je nog een factor 100”, legt Nackaerts uit.

Hoe meer parallellisatie er in het verwerken van de gegevens mogelijk is, hoe groter de efficiëntiewinst van Diana zal zijn. De meerwaarde van de chip is daarentegen beperkt bij toepassingen met kleine datapakketjes. “Zo werken sommige beveiligingscamera’s met beelden van 30 bij 30 pixels”, weet Verhelst. “Je moet dan heel vaak kleine datapakketjes ophalen en dan kun je de efficiënte rekeneenheden niet ten volle benutten.”

Bij gepulste neurale netwerken zie je volgens Bohté hetzelfde verhaal. “Deze netwerken zijn theoretisch 100 tot 1000 keer zo zuinig als de beste klassieke neurale netwerken. Maar een chip doet natuurlijk meer dan het neurale netwerk uitvoeren en al de rest moet je ook optimaliseren voor het energiegebruik. Dat heeft onze onderzoekspartner imec gedaan. De μBrain-chip die imec heeft ontwikkeld, is een speciale neuromorfische chip met 336 gepulste neuronen die een energiewinst van een factor 20 haalt. Voorheen was er nog een debat of gepulste neurale netwerken in de praktijk echt zuiniger zijn. Met µBrain hebben we nu een bevestigend antwoord.”

Hardwareversnellers combineren

Diana heeft naast de hostprocessor een analoge en een digitale coprocessor die elk voor een specifiek type bewerkingen zijn geoptimaliseerd. De onderzoekers van imec hebben ook software ontwikkeld die een neuraal netwerk opsplitst in stukjes die elk optimaal op de ene of de andere coprocessor draaien. Zo worden de hoogste efficiëntiewinsten behaald.

Wat als je nu meer van die gespecialiseerde coprocessors gaat combineren, ook voor andere toepassingen dan neurale netwerken? Welke combinatie van coprocessors is optimaal voor een gegeven algoritme? “Elke extra coprocessor maakt de berekeningen in principe efficiënter, maar neemt ook meer oppervlakte in. Bovendien verlies je aan efficiëntie als je gegevens moet delen tussen coprocessors. Implementeer je dan gedeeld geheugen of op welke manier deel je gegevens?” Allemaal vragen die volgens Verhelst nog veel onderzoek vereisen.

Ook het compileren van je software voor een heterogene verzameling van rekenkernen is volgens Verhelst niet vanzelfsprekend. “Je hebt een compiler voor elk van die coprocessors, maar op een hoger niveau vereist dat ook heel wat beslissingen over welke code je naar welke compiler stuurt. Bij Diana ging het maar om twee coprocessors, maar hoe meer coprocessors en hoe heterogener ze zijn, hoe groter de uitdaging.”

Sneller leren

De meeste geoptimaliseerde hardware voor AI versnelt de inferentie, maar ook het leerproces zou profiteren van een energie-efficiëntere uitvoering. “In veel gevallen is een vorm van few-shot learning handig”, zegt Nackaerts. “Een operator in een fabriek doet bijvoorbeeld aan een robot drie keer voor hoe hij een voorwerp moet oppikken en daaruit leert de robot dan de benodigde bewegingen. Of je zou je robotstofzuiger willen tonen dat hij rond een speeltje moet rijden.”

Een operator in een fabriek kan een taak aan een robot aanleren door die voor te doen. Bron: imec

Voor analoge coprocessors vormt het leerproces echter een grote uitdaging, legt Nackaerts uit. “Bij de training mik je erop dat je langzaam naar een optimale toestand evolueert. De stappen in je trainingsproces moeten daarvoor klein zijn, maar als je maar een precisie van 6bit hebt, zijn je stappen onmiddellijk te groot.”

Gepulste neurale netwerken hebben met een gelijkaardige uitdaging te maken, merkt Bohté op. “We hebben chips nodig die kunnen blijven leren als ze ergens ingebouwd zijn. Zo zou de chip voor spraakherkenning in je wagen de bestuurder beter kunnen leren verstaan. De huidige neuromorfische chips doen echter alleen inferentie, geen training. We hebben nog geen algoritmen die stabiel blijven als je met gepulste neurale netwerken wilt blijven leren.”

Frenkels recente onderzoek spitst zich toe op training van gepulste neurale netwerken op neuromorfische chips. “De top-downaanpak waarvan ik en andere onderzoekers zich bedienen, gaat uit van het standaardalgoritme voor backpropagation waarmee we klassieke neurale netwerken trainen. Dat wordt dan vereenvoudigd zodat het bioplausibeler is en minder kost om in hardware te worden geïmplementeerd.” Frenkel verwijst naar het artikel 'A solution to the learning dilemma for recurrent networks of spiking neurons', dat een biogeïnspireerd algoritme met weinig geheugen voor het leren van temporele gegevens voorstelt. “Daarvan heb ik het geheugengebruik verder geoptimaliseerd, zodat de implementatie in hardware mogelijk werd.”

Onlangs werden al verschillende ontwerpen van dergelijke aangepaste leeralgoritmes gedemonstreerd voor beeldverwerking, waarvoor geen temporele gegevens nodig zijn. “On-chip leren van statische gegevens zoals foto’s is al een hele uitdaging. Mijn nieuwste neuromorfische chip heeft echter een biologisch geïnspireerd leeralgoritme dat voor het eerst end-to-end-onchip training voor temporele gegevens mogelijk maakt”, zegt Frenkel. “De chip is onlangs gepresenteerd op de International Solid-State Circuits Conference en dit zal een van mijn belangrijkste onderzoeksonderwerpen blijven.”

Reacties (46)

46
46
9
1
0
33
Wijzig sortering
https://youtu.be/GVsUOuSjvcg
YouTube: "Future Computers will be radically different" van Veritasium.

Een aanrader om te kijken, als je je zou willen verdiepen in analoge (co) processoren!
Inderdaad een goede video (met een stuk meer diepgang dan dit artikel)
Ik heb op dit artikel geklikt specifiek om deze video ook te delen, maar je was me voor!
Ze vullen elkaar mooi aan volgens mij.

(Ik vond veritasium juist een beetje oppervlakkig blijven)

[Reactie gewijzigd door Verwijderd op 22 juli 2024 18:43]

Tja als je bekijkt waar we nu staat met A.I dan is er helemaal nog geen sprake van A.I maar eerder machine learning en dat ook nog eens op deelgebieden.

Vergelijk het met een menselijk brein wat dat met, naar verhouding, heel weinig energie kan doen dan moet er nog veel gebeuren. Maar misschien kunnen we het "analoge" menselijk brein straks ook nabouwen, laten leren en programmeren. De eerste stappen zijn er al om ons brein uit te lezen om bijv exoskelet te laten bewegen, mensen zonder arm/hand toch arm/hand te geven die via connectie met on brein gestuurd kan worden.

Maar wie weet bedoeld men met analog wel het simuleren van de werking van ons brein.
Ik hoor vaker dat wij weinig energie verbruiken maar wij verbruiken gewoon ongeveer 100 Watt per uur. Reken maar dat je een 20-25% nodig hebt voor je brein. Da's 25 watt/uur. Dat lijkt in vergelijking met computers niet veel maar realiseer je dan dat wij al miljoenen jaren aan het optimaliseren zijn en computers nog maar een eeuw.

Ik denk als je kijkt naar de daling in verbruik per berekening per jaar die geboekt wordt het zo langzaam niet gaat. Hoewel de werking van hersenen tot nu toe nog compleet anders is in vergelijking met computers natuurlijk.
https://hypertextbook.com/facts/2003/WeiLiangMok.shtml

Wij verbruiken ca 100 watt per dag volgens deze link. Dat is naar je hersenen al je organen spieren enz. Ook als je naar spieren kijkt zijn mensen maar zelf dieren bijzonder efficiënt.

https://hypertextbook.com/facts/2001/JacquelineLing.shtml

Ons brein gebruikt ca 20 watt, qua gewicht is het 2% van ons lichaam en verbruikt het dus redelijk veel energie. Maar 20 watt per dag daar kan geen enkele analoog of digitaal systeem ook maar in de buurt komen.
Vergelijking klopt niet hoor. Wij verbruiken evenveel als een peertje van 100 Watt. Maar dat verbruik is per uur. Wij verbruiken 2200 kcal per dag 1kcal per uur is 1,1 watt per uur.

De vergelijking met een lamp is verwarrend want een lamp van 100 Watt verbruikt 100 watt/uur.

Ons brein verbruikt daarvan ongeveer 20%, overigens niet alleen om na te denken.

Een raspberri pi verbruikt 6 Watt, da's 144 Watt per dag en dus aanzienlijk minder, stelt ook minder eisen aan zijn temperatuur en gaat niet op de fiets naar het werk natuurlijk.
Je haalt nu een aantal eenheden door elkaar.
Watt is al een eenheid per tijd, je kan niet zeggen 100 watt / uur.

Een peertje van 100 Watt, gebruikt 100 Watt. Na een uur heeft hij 100 WattUur (Wh) gebruikt.

Het is makkelijker te begrijpen als je ipv Watt; Joule/seconde gebruikt. Een watt is 1 joule per seconde. Een peertje gebruikt 100 Joule per seconde, 100J/s of 100Watt.

Na een uur heeft het peertje 100J/s*uur gebruikt. Dat is 3600 Joule. Ook wel 1 WattUur (Wh)

En om jouw bovenstaande zin te corrigeren: "De vergelijking met een lamp is verwarrend want een lamp van 100 Watt verbruikt 100 WattUur /uur."

[Reactie gewijzigd door dragonhaertt op 22 juli 2024 18:43]

Ik haal ze niet door elkaar maar probeer uit te leggen dat die 100 wat dus niet per dag is omdat het een uur eenheid is en dat ons verbruik dus inderdaad 100 watt is en dat dat per uur is en niet over de hele dag
Watt is geen uur eenheid. Watt is joule per seconde. (een seconde eenheid dus)
WattUur is een eenheid die jij ziet bij je energierekening, en is je verbruik in Watt * het aantal uur.
Je haalt nu allerlei eenheden door elkaar. Vermogen druk je uit in Watt, energie druk je uit in Watt*uur, niet Watt/uur.
Nogmaals ik haal ze niet door elkaar. Wij verbruiken per dag hetzelfde als een lamp van 100 Watt. Da's dus 100 watt per uur is 2500 kcal per dag en niet 100 Watt per dag.

Van die 100 watt is 20% voor onze computer dus die verbruikt 20 Watt. Dat was mijn punt. Ik heb computers die aanzienlijk minder verbruiken maar ook aanzienlijk minder kunnen.

Dat wij zo energie zuinig zouden zijn is dus relatief. Als je kijkt hoeveel energie er in een varken gestopt moet worden om op termijn onze hersenen van voldoende energie te kunnen voorzien om te kunnen begrijpen dat dat zoveel energie is dat het klimaat eronder leidt is het allemaal niet zo zuinig
Nogmaals, Watt is een eenheid per seconde. Dat zit verwerkt IN de eenheid.
Watt staat ook wel voor "Joule per seconde"
Watt per uur is net zoiets als 'Kilometer per uur per uur', dan praat je over een versnelling.

Wat jij noemt "Watt per dag" of "Watt per uur" zou: WattUur per dag, of WattUur per uur moeten zijn.
Om het te versimpelen zou je kunnen proberen te denken in Joule.

Watt = Joule/sec

Je computer verbruikt 20 Joule/seconde (20 Watt)
Als je die computer één uur aan laat staan, dan heb je 72000 Joule verbruikt. (Dat staat gelijk aan 20WattUur)

Je hebt nu één uur lang, 20 watt gebruikt. Dat is NIET 20 watt per uur. 20 watt per uur = 20 joule per seconde per uur. Je hebt WEL 20WattUur gebruikt, een andere eenheid!

Watt = Joule / s = verbruik per tijdseenheid
WattUur = Joule / s * uur = totaal verbruik.
Snelheid = km / s = afstand per tijdseenheid
Afstand = km / s * uur = totale afstand afgelegd na één uur.

[Reactie gewijzigd door dragonhaertt op 22 juli 2024 18:43]

Ik begrijp je echt hoor.

Mijn enige punt is dat wij 2200 kcal per dag verbruiken en dat dat helemaal niet zo extreem weinig is
Niet vervelend bedoeld, maar als je het begrijpt zou het handig zijn om de eenheid Watt en Wattuur niet door elkaar te halen. (jij noemt ze allebei 'Watt')
En als mensen je er op wijzen dat je ze door elkaar haalt, en je zegt dat je dat niet doet, dan kan je een reactie verwachten.

20 Watt is inderdaad best een flink verbruik. Dat is zo'n 24 wattuur, (ofwel 1.7 miljoen joule, ofwel 400 kcal) per dag.

[Reactie gewijzigd door dragonhaertt op 22 juli 2024 18:43]

Heb je ook weer gelijk in maar in het dagelijks gebruik bedoelen mensen met 100 watt nu eenmaal een verbruik van 100 Watt per uur. En dat was ook de denkfout van de oorspronkelijke auteur @bbob

Die het ondanks de fouten toch tot +2 schopt. Overigens is er bij neurobiologen een grote discussie of die energie wel in het denkwerk gaat zitten, ik zie zelf bij mening vergadering veel energie maar inderdaad weinig denkwerk. Maar dat terzijde
Heb je ook weer gelijk in maar in het dagelijks gebruik bedoelen mensen met 100 watt nu eenmaal een verbruik van 100 Wattuur per uur.
Ik probeer het nog één keer, '100 watt per uur' betekent niet wat jij denkt dat het betekend.
100 watt (vermogen), gedurende een uur, geeft 100 Wattuur (energie).
100 watt PER uur is 100 j/s/uur, oftwel een toename van 100 watt, elk uur. Alsof je elk uur een 100watt lamp erbij aan zet.

Jij noemt nu nog steeds de eenheid Watt (vermogen, joule/s) en Wattuur (energie, Joule) hetzelfde, terwijl ze niet hetzelfde zijn.
Door het consistent fout te zeggen zullen er alleen maar meer mensen zijn die niet begrijpen hoe deze eenheden werken.

Om het nog eenmaal inzichtelijk proberen te maken: hier je eigen zin met een vergelijkbare eenheid:
Heb je ook weer gelijk in maar in het dagelijks gebruik bedoelen mensen met 100 kilometer per uur nu eenmaal een snelheid van 100 kilometer per uur per uur.

[Reactie gewijzigd door dragonhaertt op 22 juli 2024 18:43]

Pffff nogmaals ik snap het wel maar in het algemeen zeggen mensen het dus anders.

Die kijken naar een lamp en zeggen "die gebruikt 100 watt per uur" ik daar geen energie, in welke eenheid dan ook, insteken
ik zie zelf bij mening vergadering veel energie maar inderdaad weinig denkwerk. Maar dat terzijde
Dat heeft dan weer met IQ te maken, de ene kan zaken nu eenmaal sneller en beter verwerken dan een anders. Ondanks een verschillende IQ zal het verbruik waarschijnlijk bij beide gelijk kunnen zijn.
D.w.z een hele dag geestelijk inspannend bezig zijn kost ook aardig wat energie.
IQ is ouderwets en achterhaald. IQ heeft overigens geen enkele relevantie met efficiëntie van het brein. Als dat wel zo is lees ik daar graag een paper over.
pff komen we weer met zo lees ik daar graag een paper over. Wij als mens begrijpen nog maar een heel klein beetje hoe ons brein überhaupt werkt dus vragen om een paper over efficiëntie is zo een dooddoener.
Dat heeft dan weer met IQ te maken, de ene kan zaken nu eenmaal sneller en beter verwerken dan een anders.
Oke dan praat je hier dus uit je nek, duidelijk.
pff nu moet ik omdat jij te lui bent zelf te zoeken of misschien niet die capaciteit hebt met een voorbeeld komen.

https://www.medicalnewstoday.com/articles/320152
People with a higher-than-average intelligence level have brains that are “wired” in a different way, researchers say. A new study suggests that intelligence is linked with increased connectivity between some regions, and reduced interaction between others.
Ik lui? Jij neemt niet eens de moeite om fatsoenlijke zinnen te typen. Met bizarre claims komen, geen bewijs leveren en vervolgens mij lui noemen als ik daar om vraag? LOL. De bewijslast ligt bij degene die de claim maakt. En dat is dan 'karma koning' van Kunstmatige Intelligentie. Laat maar weer zien wat voor inhoudsloze toekenning dat is.
Interessant artikel maar dit gaat niet over efficïentie.

[Reactie gewijzigd door langestefan op 22 juli 2024 18:43]

Van het artikel:
he different topological embedding of these regions into the brain network could make it easier for smarter persons to differentiate between important and irrelevant information — which would be advantageous for many cognitive challenges,” suggests Basten.
Er is dus een verschil in het eenvoudiger onderscheiden van data omdat hersenen dus anders in elkaar zitten. Dat type hersenen kan dan efficiënter omgaan met data omdat het op een ander manier alles verwerkt.

Maar ach bizarre claims, woordspelletjes typisch in dit soort discussies die zinloos zijn en dan begin je met karma koning alsof ik daar waarde aan hecht, Jij kijkt er schijnbaar naar en verbind er een conclusie aan, dat zegt eerder iets over jou.

Feit blijft de ene mens is beter in het ene de ander in het andere. Hersenen kun je trainen maar uiteindelijk zit in je dna hoe je geboren wordt en hoe de verbindingen in je hersenen lopen. Die kun je vanaf je jeugd trainen en verbeteren of je doet er niets mee. De werken van het brein kan verschillen en ook de manier hoe het met gegevens omgaat.

Lui ja dat is typisch hier, sommige zaken zijn zo snel te vinden maar dat eeuwige gezeik om bron. Als je interesse in een onderwerp hebt is zoeken zo eenvoudig tegenwoordig.
Lui ja dat is typisch hier, sommige zaken zijn zo snel te vinden maar dat eeuwige gezeik om bron. Als je interesse in een onderwerp hebt is zoeken zo eenvoudig tegenwoordig.
Waarom moet ik bewijs zoeken voor jouw (foute) uitspraken? Als je zo zeker bent van je zaak moet je die ook kunnen onderbouwen. Dus nogmaals, de bewijslast ligt áltijd bij degene die de claim maakt.
Zinloze discussie geef duidelijk iets aan maar als jij het anders ziet blijf der lekker bij. Conclusie onze hersenen zullen anders aangesloten zijn wat dus een verschil maakt ook hier.
Ik heb altijd geleerd dat ik mijn standpunt moet onderbouwen met argumenten. Blijkbaar heeft niet iedereen dat meegekregen.
Ik ben blij voor je dat je nog iets geleerd hebt, dat zitten er schijnbaar nog connecties daarboven.

Wat het onderbouwen betreft als mijn onderbouwing jou niet bevalt of niet voldoet aan wat jij verwacht is dat niet mijn probleem maar die van jou.
Nouja zo neemt niemand je serieus en dat is ook jouw probleem.
Hoe kom je er bij dat ik dat als een probleem zie. Je kan mensen zoals jij doet een probleem aanpraten maar ja dat werkt helaas niet bij iedereen.
Als je een claim maakt moet je die kunnen substantiëren, als je dat niet kan dan moet je je mond houden. Ik praat je niks aan, er is simpelweg geen andere methode mogelijk. Dit is pure logica. Ik denk niet dat je dit gaat begrijpen dus ik stop nu de discussie, succes ermee.
Ter info jij bepaald voor een ander niet wat die wel of niet mag zeggen, dus als je echt de illusie hebt dat jij mij de mond kan snoeren nee. Maar misschien kun je bij iemand ander Poetintje spelen en dat wel voor elkaar krijgen.
Sorry klopt brein verbruik ca 20 watt per uur, wat nog steeds gigantisch weinig is als je ziet wat het allemaal kan
Watt is al een unit per tijdseenheid.
Je hersenen gebruiken 20 watt, de hele dag. Niet 20 watt per dag.

Op een dag van 24 uur is dat al 480 WattUur. (Wh)
Ook in je slaap verbruiken hersenen energie. (de berekeningen die je linkt gaan over 24 uur)

20W is ongeveer hetzelfde als wat je telefoonlader gebruikt, een mobiele telefoon is dus een stuk zuiniger dan je hersenen.
Klopt verbruik is ca 20 watt per uur en ja je mobiele telefoon zal een stuk zuiniger zijn.
Ik neem aan dat je de capaciteit van ons brein toch niet wil vergelijken met een mobiele telefoon ?

Ter vergelijking: https://qz.com/114699/why...ork-like-the-human-brain/

Oud artikel maar toch, vergelijk het stroomverbruik van ons brein met bestaand analoge of digitale chips en onze prestatie per watt is extreem hoog.

Er is momenteel zelfs in supercomputer nog geen snelheid en capaciteit om ons brein te simuleren. Zelf als het kan is het stroomverbruik zo gigantisch dat het niet in verhouding staat tot ons brein.

https://newatlas.com/spin...e-brain-simulation/57101/
Deze kan 1% van menselijk brein simuleren maar ja niet met 20 watt per uur
Qua verbruik ten opzichte van de hoeveelheid rekenkracht is het brein inderdaad extreem zuinig, maar het gebruikt zeker wel meer energie dan andere analoge of digitale systemen die ook significante rekenkracht hebben. (je vorige bericht las alsof het brein veel minder energie gebruikt dan elk stuk electronica)

Daarnaast is het erg verwarrend als je "Watt per uur" noemt, wat dat is een eenheid die niet veel gebruikt wordt.
Watt is een eenheid per tijd, J/s
Je zegt ook niet "Kilometer per uur per uur". Dan praat je over versnelling.

Watt is verbruik over tijd. WattUur is totaal verbruik. Je kan over een dag tijd, 2400WattUur verbruiken, dat is 100 WattUur per uur, oftewel 100 Watt.
maar het gebruikt zeker wel meer energie dan andere analoge of digitale systemen die ook significante rekenkracht hebben.
Vooruit een rekenmachine zal naar verhouding veel minder energie verbruiken en kan sneller rekenen dan de meeste mensen. Maar dat zijn specifieke taken.

Wederom vergelijk het met andere systemen ook wat jij significant qua rekenkracht noemt en ze zijn nog steeds langzaam in vergelijking tot ons brein.

We zijn niet eens in staat met de snelste supercomputers ons brein te simuleren. Misschien als je de top 50 bij elkaar neemt dat die met zijn allen een simulatie kunnen draaien. Maar gokje niet met een verbruik van 20 watt. per uur.
Voor alle mensen die "watt per uur" (blijven) gebruiken... denk aan het volgende:

Een Joule is een hoeveelheid energie. (bijvoorbeeld: wat er in een batterij zit)
Een Watt is de hoeveelheid Joule per seconde. (hoe snel wordt de energie 'gebruikt', een grote lamp verbruikt meer dan een kleine lamp)

Als we de term "watt per uur" ontrafelen, komen we uit op "joule per seconde per uur", wat een nietszeggende eenheid is, net zoals de snelheid van een voertuig niet in "120 kilometer per uur per dag" uitgedrukt kan worden, maar we wel afstand kunnen uitdrukken als "120 kilometer per uur, een dag lang" (120km/u, 24 uur lang, is een afstand van 2880km).

Je kunt dus ook energie uitdrukken in Joule, maar ook als "100 Joule per seconde, een uur lang", of "100 Watt, een uur lang", wat we omschrijven als "100 Watt-uur" (100 joule per seconde, voor 3600 secondes = 360000 joules, of 360kJ) en niet "100 Watt per uur".

Stel je hebt een fles met water waar je een gaatje in prikt. Er komt bijvoorbeeld 1 milliliter water per seconde uit. Je kunt niet zeggen dat er "1 milliliter per seconde per uur" uit komt, wel kun je zeggen: "1 milliliter water per seconde, een uur lang" - dat zegt niets over de stroomsterkte, maar iets over hoeveel water er in de fles zit. (1ml / sec * 3600sec = 3.6 liter, een flinke fles)

De enige situatie waarin je in theorie "100 Watt per uur" kunt gebruiken, is als je bijv. een flink aantal lampen hebt van 100 Watt, en je ieder uur een extra lampje aanzet. Dan is je verbruik tijdens het eerste uur 100W, daarna (met 2 lampjes) 200W, daarna 300Watt (met 3 lampjes), etc etc. Dit is zo ver gezocht, dat het in de praktijk nooit gebruikt wordt. In het geval van afstand/snelheid, zou het neerkomen op acceleratie: eerst rijd je 10km/u, dan 20km/u, dan 30km/u, etc. Maar 'energie acceleratie' is niet een term die we in de context van chips of praktisch ieder elektrisch apparaat gebruiken. Dus als je ergens "Watt per uur" tegenkomt, mag je er van uitgaan dat er een fout gemaakt is.

[Reactie gewijzigd door riven4096 op 22 juli 2024 18:43]

Het gaat er vooral om dat het menselijk brein vele malen efficiënter is dan welke computer dan ook. Ik las laatst dat de hoeveelheid energie per berekening (in joules/flop) ongeveer 100x/1000x lager ligt voor het menselijk brein dan de huidige state of the art.
Dat zou kunnen maar ten eerste is de hoeveelheid energie per berekening van computers heel hard aan het dalen en die van ons niet. En ten tweede is het heel algemeen gesteld. Er zijn heel veel dingen die computers wel kunnen en wij niet dus zo zwart wit is het helemaal niet
Hoe weet je dat die van ons niet aan het dalen is? De mens evolueert ook door. We worden daarnaast ook als collectief steeds slimmer. Moore's Law is al sinds 2010 niet meer geldig.

Ik heb het artikel gevonden: https://timdettmers.com/2...eep-learning-singularity/

Fugaku supercomputer uit Japan:
Power = 30 MW
Peak = 537 PetaFlop/s
Energy/op = 56 pJ/op

Het menselijk brein:
Power = 20W
Speed = 1000 Exa Op/s (zie bron)
Energy/op = 2x10^-8 pJ/op

Oftewel het menselijk brein is 3.2x10^9 zo efficiënt. Conclusie: we hebben nog hele, hele lange weg te gaan.
Dat van ons zal wellicht dalen, wellicht ook niet. Zelfs het meten van het verbruik is al controversieel. En waardoor dit verbruik dan wordt veroorzaakt.

https://scholar.google.nl...abs&u=%23p%3D_XSs9dkKRyUJ

Zoals gezegd de werking tussen computers en neuronen is zo compleet anders dat het gewoon niet 1 op 1 vergelijkbaar is, en ik denk dat je ook wel gelooft dat we over een miljoen jaar dit gat vast gedicht hebben.

Ook doet een computer alleen rekenen, onze hersenen doen veel meer dan denken en dat wordt voor het gemak even weggelaten maar kost zeker energie. Men sluit zelfs niet uit dat het in stand houden van de structuur meer energie kost en hogere cognitieve processen eerder een bijwerking zijn. Veel dieren doen het prima zonder....

En van computers weten we hoe ze werken, wij maken ze, van hersenen weten we heel weinig, laat staan van cognitieve processen, en dan helemaal bij andere diersoorten zoals insecten en octopussen.

[Reactie gewijzigd door gaskabouter op 22 juli 2024 18:43]

Er worden al modellen gebouwd om de manier van leren van het menselijk brein na te bootsen. Daar ben ik onder andere nu mee bezig in mijn MSc programma. Zie bijvoorbeeld:
https://en.wikipedia.org/wiki/Free_energy_principle
https://www.nature.com/articles/nrn2787

Of deze lecture over 'predictive coding' van de grondlegger van Free Energy (Karl Friston) is ook erg interessant:
https://www.youtube.com/watch?v=b1hEc6vay_k

De boodschap is dat er een fundamenteel verschil is tussen hoe een 'AI' leert versus hoe een mens leert.

[Reactie gewijzigd door langestefan op 22 juli 2024 18:43]

Die boodschap begrijp is ook. Het menselijk brein is sowieso nog te complex voor ons om het te begrijpen. Daarnaast spelen emotie, ervaringen uit het verleden ook mee. Doe er soms nog 6de zintuig bovenop of voorgevoel en je komt in het niet tastbare.

Op dit item kan niet meer gereageerd worden.