Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Google-algoritmes voorspellen energieproductie windmolens een dag van tevoren

DeepMind, een zusterbedrijf van Google, stelt dat het kunstmatige intelligentie heeft ingezet bij een aantal windmolens in de VS. Daarmee kan 36 uur van tevoren worden voorspeld hoeveel energie er wordt geproduceerd. Dit zou de waarde van de windenergie verhogen.

De onderzoekers van DeepMind stellen dat ze in hun zoektocht naar een oplossing voor de onbetrouwbaarheid van windenergie vorig jaar begonnen zijn met het toepassen van deeplearning-algoritmes bij windmolens. Het gaat in totaal om zevenhonderd megawatt aan windenergiecapaciteit die geleverd wordt door molens ergens in het midden van de Verenigde Staten. Volgens de onderzoekers heeft de ai met succes voortijdig de output van energie voorspeld, tot 36 uur voorafgaand aan de daadwerkelijke energieproductie.

Dat is gedaan door het neurale netwerk te trainen op de breed beschikbare weersvoorspellingen en historische data over de windturbines. Op basis daarvan werd het systeem geconfigureerd om de hoeveelheid te genereren energie 36 uur van tevoren te voorspellen. Met het model kunnen vervolgens een dag van tevoren aanbevelingen worden gedaan om de energielevering aan het net per uur te optimaliseren. Volgens de onderzoekers is dat belangrijk, omdat energiebronnen die 'gepland' kunnen worden, en dus op een bepaald moment een bepaalde hoeveelheid stroom kunnen leveren, doorgaans waardevoller zijn voor het elektriciteitsnetwerk.

Volgens de onderzoekers wordt het algoritme momenteel nog verder verfijnd, maar heeft het nu al positieve resultaten opgeleverd. Ze stellen dat de 'waarde' van de windenergie met grofweg twintig procent is verbeterd ten opzichte van het standaardscenario waarbij geen voorspellingen zijn gedaan van de hoeveelheid te produceren stroom.

Door Joris Jansen

Nieuwsredacteur

27-02-2019 • 09:37

77 Linkedin Google+

Reacties (77)

Wijzig sortering
Ze stellen dat de 'waarde' van de windenergie met grofweg twintig procent is verbeterd ten opzichte van het standaardscenario waarbij geen voorspellingen zijn gedaan van de hoeveelheid te produceren stroom.
Ik denk niet dat er ook nog maar 1 serieuze partij is die op grote schaal windenergie produceert zonder voorspellingen.
Het is daarom absurd van Google om dit een standaardscenario te noemen.
Lachwekkend zelfs.

Een beetje als iemand die nieuwe remmen bedenkt en dan stelt dat het gebruik van deze nieuwe remmen 20% minder verkeersslachtoffers oplevert dan het 'standaard' scenario van het rijden zonder remmen.
Mwah, in een flinke Amerikaanse staat stelt 700MW niet zoveel voor en ik kan me goed voorstellen dat nog maar een paar jaar geleden diverse TSO's nauwelijks/geen rekening hielden met renewables als wind en zon. Er is daar de afgelopen ~5 jaar veel gebeurd op duurzame-energie vlak.
5 jaar geleden is in opwekking van duurzame energie bijna al de prehistorie.
Opwekking van windenergie in de VS is de laatste twaalf jaar vertienvoudigd
https://www.statista.com/...m-wind-energy-since-2005/
Linksom - helemaal eens. Klinkt als een relatief eenvoudig model dat op de korte termijn goed kan voorspellen en ook door iedere club IT-ers plus consultants gebouwd kan worden bij iedere energiebier. Rechtsom - Toch kan het goed zijn dat de klanten van energieboeren hier iets aan kunnen hebben, maar datzelfde model niet hebben. Denk aan de winstmarge die de Tesla storage unit in Australië pakt. Voor de eigenaar van een windpark kan dit model, plus een beperkte buffer aan batterij capaciteit zijn marge flink verhogen. Net de scherpste dipjes van de prijs wegpoetsen zeg maar. Daar gaat geen inkoper je bij helpen. De gemiddelde zon of windboer wordt een steeds kleinere jongen, zonder geld voor IT + consulting.

20% rendement verbetering is énorm... al kan die nooit structureel zijn gezien de werking van de markt. Het bewijst wel het nut van beter timen dan de buurman.

[Reactie gewijzigd door paknaald op 28 februari 2019 20:54]

Dit is vooral interessant, uit het artikel: "Although we continue to refine our algorithm, our use of machine learning across our wind farms has produced positive results. To date, machine learning has boosted the value of our wind energy by roughly 20 percent, compared to the baseline scenario of no time-based commitments to the grid."

Dat is echt heel veel!

[Reactie gewijzigd door 12_0_13 op 27 februari 2019 09:42]

Als ik de berichten over de terugverdientijd van zo'n tesla battery park moet geloven dan is die 20% niks, vooral omdat zo'n battery park wss een groot gedeelte van die 20% opslokt. De energie word tenslotte 20% meer waard omdat er van te voren al duidelijk is dat de kolencentrale bijv minder hard hoeft te draaien want er gaat wind energie zijn, als je dat van te voren niet weet dan laat je de kolen branden en is die windenergie minder waard omdat die niet benodigd is. Met battery Park heb je al een veel strakker kolenbeleid en kan je overschot van welke bron dan ook opvangen tot je vol zit. Wel mooi dat het sowieso verschil maakt.

Wat overigens ook een belangrijk stukje data is, is dat de 20% ten opzichte is van NIET plannen. En als je NIET plant ben je al helemaal debiel bezig. Het weerbericht is niet altijd 100% accuraat maar zeker accuraat genoeg om in de energie planning van wind water en zo'n mee te nemen. (veel van googles data in dit geval is OOK gewoon weersverwachting data icm historische weersdata en turbinedata) Die 20% is eerder een leuk cijfertjes dan iets realistisch anno 2019. Dit artikel lijkt me eerlijk gezegd meer een mooie jas aandoen bij meneer data, ja duh uit data haal je data en alles is te analyseren. Machine learning klinkt leuker dan data analysis.

Uiteindelijk is het een combi van alles, voor een machinelearned smart grid.

PS er zullen mensen zijn die lezen 20% meer opbrengst in kWh, maar het gaat uiteraard om economische waarde van 20% hoger van de zelfde kWh opbrengst.

[Reactie gewijzigd door TWeaKLeGeND op 27 februari 2019 10:05]

Het verhaal van die Tesla batterijpack in de Australische staat South Australia had voor een groot deel te maken met het feit dat de Tesla batterij ook meedingt op de lucratieve frequentieregeling markt. Doordat het vermogen van de batterij om stroom op te nemen of af te geven in enkele ms beschikbaar is kan het een groot deel van die markt pakken en is door de snelheid ervan tevens minder additionele frequentie regelende capaciteit nodig. Het ging daarbij dus niet eens zozeer over de bulk buffering van overtollige windenergie.

Hier gaat het om iets vergelijkbaars, namelijk dat door de toegenomen voorspelbaarheid het windvermogen op de day-ahead markt verkocht kan worden i.p.v. de bulk markt. Energie verkocht op de day-ahead markt is meer waard dan de bulk markt (net als de frequentiemarkt maar dan wat minder extreem).
Ook wel interessant is hoe deze techniek zich verhoudt tot traditionele voorspellingen; ik vermoed dat de winst dan wel wat minder is. Voorspellen van output van windmolens is niet nieuw, want windmolenparken moeten hun planning al lang aan de netbeheerder doorgeven.
Dit inderdaad, erg nieuw lijken me dit soort voospellingen niet. Wat is de added value tov bestaande voorspeltechnieken?
Dit is AI dus moet het wel beter zijn want AI.
En waar komt de info van de AI vandaan ?


Het artikel heeft bijna profetische inslag,
maar instellingen als KNMI en al haar zusterinstellingen over de hele wereld doen hetzelfde met het grote verschil dat ze daadwerkelijk zowel op de grond, licht en ruimte meetstations hebben.

Google is marketing en ze weten steeds beter te verkopen al is het gebakken lucht. Ze bouwen niks op.
De vraag die ik dan graag beantwoord zie, waar haalt deze AI zijn info vandaan.

Dit bestaat namelijk al,
https://www.dnvgl.com/new...for-solar-and-wind-104354
Het zou tweakers.net ook sieren als ze dit berichtje ook zouden vermelden ipv marketing-machine van google te spekken als alwetende innovator.
Ik heb je link gelezen maar meer dan "AI zal een impact hebben op vanalles en nog wat" en "het plaatsen van sensoren kan zeer veel data opleveren" lees ik niet. Wat Google nu doet, is uitvoeren wat jouw link voorspelt/aanduidt.

En natuurljk dat Google zijn informatie ergens haalt maar het gaat om het correct verwerken van die informatie.
Weersvoorspellingen kunnen dienen als basisinfo voor dit model maar een voorspelling op zich gaat niet zeggen hoeveel electriciteit er op een bepaalde plaats gegenereerd gaat worden.
De combinatie met historische data van een bepaalde windmolenpark (en nog wel andere gegevens zoals down-time van molens) kan dat wel. En dat doet dit model (denk ik)

AI wordt als mode-woord, in mijn ogen, veel te veel gebruikt. Het gaat om een model waar je aan de ene kant data instopt, er worden berekeningen op losgelaten en aan de andere kant komt er andere data uit.
Echte AI zou voor mij zijn dat "het systeem" zelf factoren zoekt die invloed hebben op de voorspelling. "als de zon schijnt boven de Schotse Highlands, zal het windmolenpark de dag erna 2% minder produceren" maar dan niet manueel ingevoerd in het model als parameter maar zelf gevonden door de algoritmes.

Ik geef je dus groot gelijk dat dit perfect gebracht wordt door de marketing machine van Google maar gebakken lucht is het volgens toch niet
https://essay.utwente.nl/...8%20-%20Yme%20Joustra.pdf
Google-search, 2014,

https://spectrum.ieee.org...better-forecasts.amp.html
nog beter
In 2008, the year we started working on this problem, the forecast error at a typical wind farm in this region was about 18 percent for 18 to 42 hours ahead, calculated as a percentage of the capacity of each farm. But by 2014, the mean forecast error had fallen to 10.8 percent. Xcel estimates that improvements in forecasting have saved customers US $49 million so far.
Maar lees rustig de tekst door.


De efficiency van windmolenparken staat sinds dag 1 ter discussie, simpelweg omdat wat verkocht wordt altijd wordt uitgegaan van ideale omstandigheden.
Er wordt ook sinds dat 1 gewerkt aan het optimaliseren van dergelijke windparken.


Dit verhaaltje van google over hun windmolen-parkje is reinste marketing dat ze bezig zijn maatschappelijk verantwoord ondernemen.
Mijn reactie was een tikje sarcastisch (maar dat lukt slecht via een tekstreactie). Ik zie de meerwaarde ook niet t.o.v. bestaande modellen behalve dat ze AI gebruikt zeggen te hebben ipv. modellen. Nadeel is dan ook dat je een uitkomst van de AI vaak niet meer kunt herleiden (waarom zegt de AI dat) dit in tegenstelling tot een model. Wat mij betreft heb je gelijk: tweakers herhaalt hier een joepie joepie persbericht zonder duiding.
Dat niet, maar omdat de resultaten real-time van updates voorzien kunnen worden kan er nog beter omhoog en omlaag geschaald worden met het opwekken van de overige energieproductie.
De huidige opwek update is juist altijd real-time, de winst hier is 'ahead of time' voorspelling.
Toch humor hoe ze dingen onder 'smart AI' en 'deeplearning' als nieuw en super, terwijl zulke dingen al jaren door de mensen in de powerplants worden gedaan. Van land/wereldwijde info over wind/zon waar ze vrij precies uren vooruit kunnen plannen. Vraag ik me serieus af wat de effectieve 'boost' is tov de normale voorspellingen, durf redelijk weinig tot niets te zeggen.
Dit heeft niets met AI van doen. Dit is niet meer dan een algoritme die een weersverwachting omzet in de te verwachten opbrengst van de windmolens. Dat kan best simpel zijn. Bij elke windsnelheid hoort een vaste opbrengst. De temperatuur heeft daarbij nog wel war invloed, maar niet heel veel.
De grafiek vind ik allerminst indrukwekkend. De voorspelde waarde is continu te laag en de piek op zaterdag wordt totaal onderschat. Met zulke afwijkingen is het model in de praktijk eigenlijk niet eens bruikbaar.

De windvoorspellingen in Nederland zijn redelijk nauwkeurig en ik denk dat de eerste de beste scholier daar een beter model van kan maken. Met een beetje terugkoppeling van de werkelijke opbrengst tov de verwachting kan je het ook AI noemen. Het is dan niet veel meer dan een paar procent bij de voorspelling optellen of aftrekken.

De term AI voor dit soort algoritmes gebruiken is eigenlijk een devaluatie van de term.
AI is niets meer dan algoritmes die slim gebruikt worden, maar in het geval van AI niet door mensen worden geschreven maar door een computer worden uitgevonden. Het komt er op neer dat je een computer enorme hoeveelheden data voert en het ding vraagt om op basis van die data de toekomst te voorspellen. Vervolgens voer je het systeem de werkelijke uitkomsten en leert het systeem welke algoritme beter werken en welke data wel en niet relevant is.

Dit heeft alles met AI te maken omdat men niet zelf de berekeningen uitvoert of de algoritme schrijft. De truck is dat men simpel weg het systeem verteld wat men wil dat het doet met de data die het heeft gekregen en dat de AI vervolgens leert welke algoritme beter zijn dan andere en op die manier (met genoeg data) komt tot een zeer accurate voorspelling van in dit geval de te verwachten opbrengst.

Wat ik me juist af vraag is hoe diep men gegaan is. Is dit alleen een kwestie van het aan leveren van de verwachte weersomstandigheden (kind kracht en richting) of heeft men bijvoorbeeld ook informatie over de water temperatuur, de lucht vochtigheid, de windstromen in de stratosfeer etc aan het systeem gevoerd? Het zou me niets verbazen als met heel erg veel meer data dan we traditioneel gebruiken om dit soort voorspellingen te doen het model ook heel veel accurater wordt.
Tegenwoordig wordt AI op veel dingen geplakt die eigenlijk niet anders zijn dan modelleren.
Waar modelleren vroeger bestond uit het uitvoeren van een groot aantal statistische testen om de factoren te bepalen die van invloed zijn op een proces, stopt men nu die analyse zelf in het model. Daardoor lijkt het model intelligent, maar het is alleen maar een stap die eerst buiten het model om gedaan werd die in het model is opgenomen. De complexiteit van het model wordt nog steeds bepaald door het aantal punten waarbij een mogelijke factor wordt bepaald. Al die punten worden nog handmatig in een model gestopt en zijn afhankelijk van de data die men aan het het model voert. Daarmee wordt de uitkomst net zo sterk vastgelegd als vroeger.

Bij AI moet een model niet afhankelijk zijn van vooraf gedefinieerde rekenmomenten, maar die zelf bepalen. Ik kan uit het paper niet opmaken dat dat gebeurt.
Waar modelleren vroeger bestond uit het uitvoeren van een groot aantal statistische testen om de factoren te bepalen die van invloed zijn op een proces, stopt men nu die analyse zelf in het model.
Je hebt uiteraard statistische modellen maar fysische modellen gebaseerd op natuurkunde, scheikunde, biologie, economie etc. zijn net zo oud. Beide hebben hun plaats, afhankelijk van beschikbare rekenkracht, onderzoek doel, toepassing etc.
Bij AI moet een model niet afhankelijk zijn van vooraf gedefinieerde rekenmomenten, maar die zelf bepalen.
AI is niet zelf je rekenmomenten bepalen maar -zeker in het geval van machine learning- het zelfcorrigerend gedrag van algoritmen op basis van bekende input/output data. Zo'n model verloopt niet lineair van input tot output maar kent feedback loops waarbij de output van het model vergeleken wordt met bekende input en output en de rekenparameters vervolgens aanpast om tot het gewenste resultaat te komen, waarna nieuwe input met gecorrigeerde parameters verwerkt wordt. Dit allemaal zonder ingrijpen van mensen.
In wat andere bewoordingen hanteer je min of meer dezelfde definitie van AI.
"A" is kunstmatig, zonder inbreng van mensen en "I" op eigen initieatief.

AI wordt heel veel op dingen geplakt die eigenlijk niets meer zijn dan modellen. Daar zijn dan een aantal stappen in vervangen door analyses die voorheen buiten het model werden gedaan. Bepalen welke factoren het meest belangrijk waren koste me voorheen al meerdere dagen, maar nu kan dat in een paar minuten.
Validatie die voorheen handmatig gedaan werden worden nu geautomatiseerd. Het lijkt allemaal een stuk intelligenter, maar alles is voorgekauwd en daarmee blijft het een model.

AI houdt in dat je een overvloed aan gegevens geeft en een simpel model. Daarna ga je vragen stellen die je steeds complexer maakt. De machine moet zelf maar uitzoeken welke gegevens van belang zijn en het basismodel zo gaan aanpassen dat de vragen beantwoord kunnen worden. Als leermoment kan je eventueel het correcte antwoord geven, of antwoorden op vragen die sterk op de originele vraag lijken.

Het paper beschrijft een zich zelf corrigerend model. Het is ook niet in staat om een nieuwe factor te introduceren waarmee de grote afwijking kan worden verklaard.
Een zelf corrigerend model is machine learning, wat een subtak is van AI. Ja, AI is een hype maar "machine learning" is de term die de onderzoekers gebruiken en die is in deze context correct, onafhankelijk of het algoritme nu zelf in staat is om 'extra factoren' -zoals jij het noemt- toe te voegen of niet.
In principe is élk menselijk gedrag aangeleerd vanuit opvoeding of omgeving. En is zodoende ook alles terug te voeren naar algoritmes. Dus AI kan hier prima aan voldoen...
DeepMind is echt geen kattepis hoor, dat is een serieus AI/ML bedrijf. En reken maar dat dit via machine learning gaat. Ze gaan echt hun tijd en geld niet verspillen aan het handmatig schrijven van standaardmodelletjes en -algoritmen.

Databronnen erin, historische data erin en het systeem traint zichzelf, zonder dat de data engineers per se zelf verstand hebben van geologie, meteorologie etc.
Laten we eerlijk zijn zo moeilijk is het niet. 2 datasets

Dataset 1 windsnelheid en richting
Dataset 2 opbrengst turbine

Heb je genoeg data kun je vrij eenvoudig op basis van historische data een uitspraak doen over de verwachting van de andere dataset.

Je hoeft idd geen verstand te hebben van meteorologie, het is puur data vergelijken en dan kan van alles zijn.
Historische data is niet heel erg van belang hier, alleen in heel grote lijnen wellicht. Je kan niet zeggen wat het weer vandaag is op basis van het weer op 27-2-2018. Van belang is een juiste weersvoorspelling. En dat is gewoon lastig.
En dat is precies wat ze niet doen met de AI/ML. Die weersvoorspellingen zijn de input.
Dat is gedaan door het neurale netwerk te trainen op de breed beschikbare weersvoorspellingen en historische data over de windturbines.
Dataset 1 windsnelheid en richting
En wat veroorzaakt wind? Drukgebieden. En wat veroorzaakt drukgebieden? Temperatuurschommelingen. En wat veroorzaakt die temperatuurschommelingen? Voornamelijk zeestromen, bewolking en zonnesterkte.

Op basis van huidige of historische windsnelheid en richting kan je bijna onmogelijk accurate voorspellingen doen, omdat de oorzaak steeds anders is. Je moet de onderliggende mechanica begrijpen. Daarom is dit ook deep learning, het is een probleem met meerdere abstractielagen. En om dan de interactie tussen die lagen goed te voorspellen moet je ook van al die lagen datasets hebben en erin meenemen.
Lees het artikel er staat letterlijk
Dat is gedaan door het neurale netwerk te trainen op de breed beschikbare weersvoorspellingen en historische data over de windturbines.
dus dataset 1 bestaande beschikbare weersvoorspellingen en dataset 2 historische data.
Using a neural network trained on widely available weather forecasts
Precies, weersvoorspellingen. Daar zit op z'n minst ook temperatuur en luchtdruk bij.
Die zullen ook een invloed hebben op de windmolen, wel veel minder dan windkracht.
Niet mijn punt. Het gaat om voorspellen, dus je wilt weten hoeveel wind er over 36 uur staat. Dan is het super relevant om de temperatuur te weten, bij hoge temperaturen ontstaan hoge drukgebieden. En die zorgen weer voor wind.
Het interessante vind ik hier dat ze voorspellingen maken obv voorspellingen. Ik neem aan dat ook "echte" weerdata wordt gebruikt zodat bijvoorbeeld kan worden gezien op welke manier de voorspelling afwijkt met de werkelijkheid en wat het gevolg normaliter is voor de turbine.
ja, maar dat doe het knmi nu toch ook al, dat is niet zo interessant. Gaat erom of die voorspelling uitkomt. Maar daar zijn alle weerbureaus mee bezig om die modellen te verbeteren.
En dat word niet door dit model uitgerekend hahaha ze downloaden het gewoon... net zoals iedereen dat kan doen via bijv de KNMI.

Het grote verschil is dat de Amerikanen nogal slecht zijn in dit soort dingen en dat dit daarom nieuws is
Tja, maar de windrichting en snelheid als functie van tijd en locatie wordt toch al berekend door de KNMIs van deze wereld (en vast wel met gebruik van een vorm van machine learning naast de fysische modellen, maar daar gaat het hier niet om)? https://www.windfinder.co.../3.9386/2019-03-01T18:00Z

Dan is het 'slechts' een vertaalslag naar windsnelheid en richting naar output per molen? Wellicht nog inputs voor luchtvochtigheid, temperatuur en luchtdruk die invloed hebben op de gemiddelde impuls van een m3 lucht bij een bepaalde snelheid.
Ja maar alles wat er bij hoort 8)7 weersvoorspellingen is een brede term met veel scenarios.
Dus jij kunt op basis van de windsnelheid van vandaag voorspellen hoe de windsnelheid morgen is?

Het lijkt mij dat de betrouwbaarheid van je voorspellingen bijzonder laag is. Er zijn immers veel meer factoren die de windsnelheid van morgen beïnvloeden dan alleen de huidige windsnelheid.
[quote]
Dus jij kunt op basis van de windsnelheid van vandaag voorspellen hoe de windsnelheid morgen is?
[/quote[
Ik weet niet waar ik dit geschreven heb, of jij leest niet goed of wil niet goed lezen.

Het artikel zegt duidelijk dat:
Dat is gedaan door het neurale netwerk te trainen op de breed beschikbare weersvoorspellingen en historische data over de windturbines.
Dus men gebruikt heel eenvoudig beschikbare voorspellingen en ja die proberen het weer inclusief wind en richting over 24-48 uur of verder te voorspellen. Die data neemt men en vergelijkt men met oudere data.
Jij schreef:
Dataset 1 windsnelheid en richting
Dataset 2 opbrengst turbine

Heb je genoeg data kun je vrij eenvoudig op basis van historische data een uitspraak doen over de verwachting van de andere dataset.
Jij zegt helemaal niets over weersvoorspelling. Dat verzin je er nu bij
Waar het hem om gaat, maar wat voor jou blijkbaar in jip-en-janneketaal uitgeschreven moet worden, is dat jij 'weersvoorspellingen' vertaald naar windsnelheid en richting terwijl weersvoorspellingen uit veel meer bestaan dan dat.
En redelijkerwijs te verwachten is dat DeepMind gebruik maakt van meer gegevens dan windrichting en snelheid, en dat het dus niet zo simpel is als jij voorspiegelt.
Het is niet voor niets dat men deep learning gebruikt hiervoor, Google weet ook wel dat een vergelijkbare grafiek te maken is door een middelbare school-scholier. Het verschil zit het er in dat DeepMind zich verder ontwikkelt en over een paar dagen betere grafieken maakt en dat de grafiek van de scholier hetzelfde blijft.

In plaats van af te gaan geven op een ander, kan je ook gewoon toegeven dat je eerste reactie niet zo doordacht was en dat je dus fout zat. Fouten toegeven ipv proberen goed te praten door je in rare bochten te wringen staat eenieder veel beter.
Schrijf dan gewoon op wat je bedoelt in de plaats van onzin.

Dat voorkomt een hoop ergernis achteraf.
Sorry wist niet dat ik voor jou naar jip en janneke taal moet.
Mij betichten van niet begrijpen terwijl je zelf de fout maakt vind ik zeer teleurstellend gedrag.
Dit heeft niets met AI van doen.
Ik neem aan dat je hun paper niet gelezen hebt want daarin staat keurig uitgelegd waarom dit absoluut wel AI is. En ja, dat betekend een algoritme maar wel een die flexibel is om te leren en naar zijn eigen geschiedenis te kijken. Dat heeft niets te maken met een paar procent meer of minder. Werkelijk niet.

Natuurlijk ook mogelijk dat jij een andere definitie van AI hebt dan Google.
Ik heb het paper even doorgekeken. Als de definitie van AI is : Leren van de eigen geschiedenis, dan is het AI, maar in dit geval is het model zo simpel dat ik het een belediging vind voor mensen die veel complexere algoritmes schrijven en deze continu laten valideren aan de hand van meetresultaten. Met de validatiestappen worden dan meestal "sjoemel factoren" aangepast. Deze factoren zijn dan al in het model opgenomen. Volgens het paper is dat al AI. Het is alleen een (geautomatiseerde) validatie en "draaien aan de knoppen" om de afstelling goed te krijgen. Ik heb zelf aan heel wat van die modellen meegewerkt, maar dit heet gewoon modelleren en is geen AI.

Als je aan AI denkt moet het model zelfstandig extra factoren kunnen vinden en toevoegen en zo zelfstandig van een simpel basis model naar een veel complexer model kunnen opschalen. Daar is een voorspelling van de opbrengst van een windmolen aan de hand van de weersvoorspelling te simpel voor.
AI is tegenwoordig een modewoord dat men overal op plakt. Het is hip en doet het goed.

Voor mij zou AI pas echt iets zijn als een systeem zelfstandig op zoek zou gaan naar het vinden van dit soort vergelijkingen. Dus niet in gang gezet door de mens maar zelfstandig.

Wat men nu heeft is software die gemaakt is door de mens, de mens geeft de datasets historisch en toekomstig en software vergelijkt data. Des te meer data des te nauwkeuriger de voorspelling en kleiner de afwijkingen kunnen zijn. Als de software er naast zit zal er gewoon een parameter bijgesteld worden.
Intelligentie noem ik dat niet.
Het mooie is dat dat bijstellen van een parameter dus niet hoeft te gebeuren door de mens maar door de software zelf. Maar nee, daar is niks intelligents aan ...

Op die manier kun je álle vormen van AI wel heel gemakkelijk onderuit halen.
Ik denk dat jou beschrijving over wat software waar aan wat parameters wordt gedraaid erg de plank mis slaat. Wat we tegenwoordig kunnen met AI is best al wel indrukwekkend. Dat neemt niet weg dat AI en deeplearning super hippe termen zijn die goed verkopen.

Echter iets pas AI noemen als het zelfstandig naar oplossingen opzoek gaat van problemen waar wij mee zitten (skynet anyone?) dat is net zoiets als een kever geen leven noemen omdat het ongelovelijk inferieur is aan ons qua complexiteit.

Hoe de software leert en zichzelf bijstelt is zeer vergelijkbaar maar erg simpel met onze neuronen. De toepassingen van AI bij bedrijven waar ik bij werk is super interessant en heeft zeker waarde.
Dat ben ik niet met je eens.

Ik ben het met je eens dat het hier gaat om een lage vorm van intelligentie: het voorspellen van energie opbrengst door windturbines. Echter het gaat nog wel om intelligentie, immers neurale netwerken zijn het kunstmatig equivalent van de biologische neuronen in onze hersenen. NNen zijn in staat om complexe non-lineaire relaties te vinden. Daarnaast zijn de gebruikte modellen waarschijnlijk complexer dan de modellen die de gemiddelde scholier kan maken of wat @SinergyX zegt dat het al jaren in powerplants gedaan worden. Laten we niet zo naïef zijn om te denken dat:
  • Google niet meer data heeft dan powerplants
  • Google niet meer rekenkracht heeft dan powerplants.
NNs zijn zeer zeker niet een kunstmatig equivalent, hoogstens een abstract afgeleide. Je mist bijvoorbeeld horizontale propagation die er in neuronen wel is maar in kunstmatige NNs niet. En zo zijn er meer processen in biologische neuronen die (nog) niet terug te vinden zijn in kunstmatige NNs.
Je hebt gedeeltelijk gelijk. Het is zeker een abstract afgeleide, echter horizontale propagatie is wel degelijk aanwezig. Denk aan recurrente neurale netwerken.
Ik ben het met je eens dat er een aantal biologische mechanismen missen zoals de membraan gating mechanismen, context en sensorische modaliteit integratie, spike trains en spatiele en temporele encoding in de spike trains. Echter wordt ook daar al onderzoek naar gedaan.
Voor mij is een kunstmatige neuraal netwerk nog steeds, zijnde een versimpeld, biologisch equivalent.
Het is het analyseren van historische data om zo meer over de toekomst te zeggen.

Heel simpel, neem van de laatste 5 jaar de weersverwachting, specifiek de verwachte windsnelheden en windrichting. Vergelijk dit mat de opbrengst van de windmolens gedurende die 5 jaar.

Als je die data hebt is het vrij eenvoudig om dan een voorspelling te doen wat de opbrengst over zeg 36 uur zal zijn.

Met ai heeft het weinig te maken, het is meer data koppelen en dan vergelijken. Dan zie je altijd een relatie tussen de ene en de andere dataset. Heb je genoeg data kun je als je iets 36 uur van tevoren weet ook zeggen wat de verwachting voor de andere dataset over 36 uur zal zijn.
Dit heeft niets met AI van doen.
Natuurlijk wel. Machine learning, wat Google hier gebruikt heeft, is een specifieke tak van AI. De slimmigheid hiervan is dat het algoritme dat de weerdata verwerkt zichzelf gemodificeerd heeft op basis van een training dataset. Normaal maken en configureren mensen het algoritme helemaal handmatig, nu heeft de computer dat (groten)deels zelf gedaan.

Dat andere partijen ook windvoorspellingen kunnen doen op basis van hun handgebouwde modellen doet daar weinig aan af. Het voordeel van machine learning voor dit soort toepassingen is dat het model met minder menselijke input verbeterd/aangepast kan worden en dus goedkoper zou moeten kunnen dan de traditionele modellen.

De kwaliteit van de voorspellingen van dit machine learning model is op dit moment mogelijk nog steeds minder dan de traditionele modellen die nu in gebruik zijn bij partijen als Tennet maar deze publicatie geeft een inkijkje in de toekomst. Dat is het interessante en belangrijkste deel van dit bericht.
Dit heeft niets met AI van doen. Dit is niet meer dan een algoritme die een weersverwachting omzet in de te verwachten opbrengst van de windmolens. Dat kan best simpel zijn.
In 2015 heb ik functionaliteit voor een horeca app ontwikkeld die een optie had die op basis van weersvoorspellingen een indicatie gaf voor benodigde personele bezetting.
Veel zon voorspeld? meer mensen op het terras etc.
Niet zo heel spannend ;-)
... AI is toch juist het door computers laten doen wat tot dusver door mensen is gedaan...? Volgens jouw definitie bestaat AI niet.
In veel scenario's is het geeneens AI, maar VI.

Zie: https://www.forbes.com/si...nce-whats-the-difference/
En toch vraag ik me af, als het niet uniek of vooruitstrevend is wat ze doen waarom zouden ze dit dan ondernemen? Het is in ieder geval 1,5 dag ipv uren vooruit dus dat lijkt me al een verbetering, maar verder zou er toch wel meer zijn anders verdiept google zich niet in deze materie (behalve het laten zien dat het kan).

Ik vermoed ook dat huidige centrales gebruik maken van rekenmodellen met data uit het verleden waar google dit dus doet op basis van aannames in de toekomst (het weer wat inmiddels vrij accuraat is)
De echte nieuwswaarde zou inderdaad zijn mocht het Google algoritme zoveel % beter zijn dan het bestaande "systeem" of zoveel % goedkoper, sneller of acurater. Op basis van de grafiek denk ik "bwaa", de hoogspanningsbeheerder kan dat nu al.
In Vlaanderen heeft de regulator iets soortgelijks ter beschikking gesteld: Stroomvoorspeller.
Vijftien jaar geleden werd dit al niet met potlood en gum gedaan maar met automatisch hercalibreerde modellen (al heette dit nog niet "AI"), wat dat betreft is dit niet fundamenteel anders dan wat er al is, alleen: wellicht leert hun algoritme sneller en/of voorspelt het iets beter dan wat er nu is.
Geeft wel duidelijk aan dat windenergie alleen maar nuttig is om 100% het landschap te verzieken en niet in staat is een economie 24/7 van energie 100% betrouwbaar kan voorzien.
Is 100%/24/7 wind energie nodig dan? Als je 36 uur van tevoren weet dat je vrij veel gratis (of heel goedkope) stroom kunt afnemen dan kun je ook je bedrijfsproces er op inrichten. Van de grote stroomverbruikers in NL kan ik me voorstellen dat de hoogovens hierop mee kunnen bewegen.
Moosnl doet zoals gewoonlijk een een simpele stropopredenatie. Nee, uiteraard suggereert niemand met enige kennis van zaken dat we 100% op wind gaan draaien. Een divers aanbod is om allerlei redenen gunstig en daar bovenop zitten ook nog zaken als demand side management. Maar er verschijnen steeds meer studies dat een grid prima kan functioneren op een zeer groot aandeel duurzame energie en dat dit even duur of zelfs goedkoper kan dan op basis van traditionele vormen van opwek. Hier een linkje naar de laatste over Europa.
Niet alleen dat - je kunt ook consumentenprijzen laten meebewegen.

Nu electrische auto opladen = x bedrag. Over 5 uur (ik noem maar wat) = 20% goedkoper.
Dit lijkt me een goede weg naar een volledig geïntegreerd elektriciteitsnetwerk waar vraag & aanbod beter op elkaar kunnen afgestemd worden.

Het "Smart"-elektriciteitsnetwerk komt zo weer sneller en sneller dichtbij
Erg interessant dit, op termijn zal het algoritme nog accurater worden en zo het hele opwekking vs verbruik-process efficienter kunnen maken.
Hmm interesant, maar in het grafiekje zie ik nog wel een dikke afwijking, zou meer data erin stoppen nog beter helpen om het te voorspellen?
Ook wel interessant hoe belangrijk de weersvoorspelling ineens wordt... (en de verschillende databronnen / weermodellen ervoor)
Nog even en Google gaat mij aanbevelingen doen over hoe ik efficiënter mijn energie kan omzetten in windjes... ;)

[Reactie gewijzigd door pimpampetje op 27 februari 2019 11:35]

Als ze hun data maar niet van Buienradar halen :p

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True