Amerikaanse luchtmacht doet testvluchten met AI als piloot

De Amerikaanse luchtmacht heeft naar eigen zeggen twaalf testvluchten uitgevoerd, waarbij al het pilotenwerk, waaronder gevechtshandelingen, zijn uitgevoerd door software. De testen moeten leiden tot meer hulp van AI bij gevechten in de lucht.

Het gaat om een combinatie van diverse systemen, zo zegt de Amerikaanse luchtmacht. Het Autonomous Air Combat Operations-systeem van de Air Force Research Laboratory voerde een een-op-eengevecht uit tegen een tegenstander die niet in zicht is. Air Combat Evolution van Defense Advanced Research Projects Agency voerde dogfights uit met andere AI-systemen in zicht.

De vluchten van X-62A Variable Stability In-Flight Simulator Test Aircraft, of VISTA, waren echt, maar de gevechten waren dat uiteraard niet. Bij alle vluchten zat een menselijke piloot om in te grijpen als het misging. Bovendien konden medewerkers de systemen binnen minuten aanpassen om de AI-systemen anders te laten reageren.

De experimenten moeten leiden tot betere AI-ondersteuning voor piloten in de lucht of eventueels zelfs uiteindelijk tot zelfstandig vliegende systemen. Voor dit experiment is een regulier X-62-gevechtsvliegtuig aangepast.

 X-62A Variable Stability In-Flight Simulator Test Aircraft
X-62A Variable Stability In-Flight Simulator Test Aircraft

Door Arnoud Wokke

Redacteur Tweakers

14-02-2023 • 20:38

132

Reacties (132)

132
129
56
7
0
42
Wijzig sortering
Voor dit experiment is een regulier X-62-gevechtsvliegtuig aangepast.
Volgens mijn bronnen bestaat er precies één X-62 toestel, en daarbij staat de X al sinds jaar en dag voor "Experimental". Daar is echt niks reguliers aan. Vooral omdat dit toestel keer op keer weer wordt aangepast, om weer nieuwe experimenten te gaan doen. Lab met vleugels.
De basis is echter wel een standaard F16. De meeste X vliegtuigen waren compleet nieuwe dingen, dat is hier niet het geval.
Nou ja, bij een F-16 met trust vectoring en voice commands ben je toch wel wat verwijderd van een reguliere F-16. Het frame is inderdaad een F-16, maar daarna...
Ik denk dat je regulier in deze context moet lezen als "normaliter door een piloot bestuurd".
Vanaf de wiki '...X-62A on 14 June 2021 as part of an upgrade to a Skyborg, with System for Autonomous Control of Simulation (SACS)...'
De naam 'Skyborg' is voor iedere Sciencefiction liefhebber natuurlijk op vele niveau's helemaal fout :+ . Integratie met ChatGPT, en de countdown is gestart.
Orgineel
The USAF's TAC loaned the Lockheed Fort Worth Company (LWFC) a F-16D block 30 (#86-0048) to be modified into a thrust vectoring research aircraft. The modified Lockheed F-16 variable stability in-flight simulator test aircraft (VISTA) belasting jaar 1986.

Nu gebruikt als een toestel voor Advancing-Autonomy te bestuderen volg deze link maar https://news.lockheedmart...ing-the-Face-of-Air-Power

De F-16 is orgineel van General Dynamics nu overgenomen door Lockheed/Martin Martin trouwens ook!

[Reactie gewijzigd door JFM Moonen op 23 juli 2024 16:59]

verbaast me niks. het is al een tijdje bekend dat de 6th gen fighters van amerika zowel vooruitgang zullen boeken op stealth/speed/range/weaponry maar ook op ai. om zowel bemand als onbemand te kunnen vliegen. En met bemand ook support te hebben van ai drones om de fighter jet heen. Dus kortom een best interessante ontwikkeling.
Door de ontwikkeling die deze vliegtuigen maken lopen we ook simpelweg tegen de menselijke grenzen aan. Er kan maar zoveel G kracht op een piloot komen te staan voordat hij bewusteloos raakt, pak of niet. Een vliegtuig zonder piloot kan veel extremere bewegingen maken zonder menselijke risico, lijkt me een no-brainer om op zijn minst een pilot (lol) mee te houden.
Noem eens concreet waarom meer G's handiger zouden zijn in dat geval? Het enige wat ik me kan voorstellen zijn negatieve G's aangezien daar totaal niet op getraind kan worden. Dat is einde oefening voor de mens maar ik kan zo geen scenario's bedenken waarin dit opeens tot een kunst verheven zou kunnen worden met autonome vluchten.
In een dogfight is het vermogen om meer G's te trekken een enorm voordeel
Daar gaan ze absoluut geen autonome vliegtuigen voor ontwikkelen. De laatste keer dat de USA serieus in dogfights heeft gezeten was in 1991. Sindsdien zijn far superieur met hun eyes in the sky (E-3 Sentry) en tot voor kort de EA-6B Prowlers. Upcoming is de AIM-260 JATM en dan lijkt mij een vliegtuig voor dergelijke doeleinden nul komma nul relevant. Maar who knows hè ;)
True, maar bijvoorbeeld het vermogen om inkomende raketten te ontwijken wordt ook een stuk groter als je wat G-beperkingen uit de software kunt halen.
Als je tegenwoordig in een dog-fight situatie terecht komt hebben een aantal mensen en systemen flink gefaald.
Ace combat 7 dogfights met drones was erg cool.

Piloten zijn duur, kosten jaren om op te leiden, hebben slaap plus eten nodig en ze volgen niet altijd bevelen op dus dit is wel de toekomst.
Gemodificeerde F16 als ik het zo zie ?? Voordeel is dat dat een zeer stabiel model is waarvan ze zeer goed weten wat het kan en hoe het reageert in diverse omstandigheden. Maakt bepaalde dingen denk ik wel beter te voorspellen en misschien ook wel te controleren als er iets net even iets anders loopt.
Deze F16 kan zo geprogrammeerd worden, dat het zich gedraagt als elk ander vliegtuig. ( Bijvoorbeeld een B52 bommenwerper.) Ideaal ook om testpiloten op te leiden.

Zie ook:
https://www.youtube.com/watch?v=y1V-ljdHO_0
"Engine #1 Failure" zal een B52 piloot minder laten zweten dan een F16 piloot...
Ooooh, the dreaded seven engine landing :)
Juist niet f16 is aërodynamische onstabiel en heeft dus een "fly by wire" icm computer nodig om stabiel te kunnen vliegen.
Gevechtsvliegtuigen worden trouwens expres onstabiel ontworpen voor extra wendbaarheid.
Natuurlijk geen ontkomen aan deze ontwikkelingen, maar ik hoop dat we naar een toekomst gaan waar het uiteindelijk niet meer nodig is.
Game Theory zorgt ervoor dat dit altijd nodig zal blijven, tenzij er 1 supermacht is die geen enkele concurrentie meer heeft.
Kan je dat nader toelichten? Heb nog nooit van game theory gehoord, maar lijkt me een interessant concept. Wikipedia geeft een hele waslijst aan verschillende toepassingen dus daar word ik niet veel wijzer van.
Dat is gewoon dat jouw beslissingen afhangen van al de andere.

Of in dit geval : de landen die de vs als concurrenten of zelfs tegenstanders |vijanden ziet doen dit, dus vind de vs dat ze geen keuze hebben en het ook te doen.
Zal wel betekenen dat alle grote machten hun wapentechnologie moeten blijven ontwikkelen, om zo te voorkomen dat een ander ze inhaalt. En als alle machten ongeveer over dezelfde vernieuwde technologie beschikken, dan is de machtsbalans in theorie in evenwicht.
Dat is maar ook theoretisch overwicht.

Rusland werkt met relatief simpele middelen terwijl Oekraïne met ondersteuning van allerlei westerse technologieën het niet red.


En het spul van Rusland kost relatief weinig en ze maken er slim gebruik van.
De drones zijn simpel en deels ontworpen door Iran, de “hypersonische bom” is ook relatief simpel vooral omdat het het laatste stuk bijna loodrecht naar beneden gaat en praktisch te snel voor afweersystemen, niet alle raketten krijgen een lading wat ervoor zorgt dat het afweersysteem afgaat, daarnaast bouwen ze veel op artillerie wat ook weinig kost.


Afghanistan is een voorbeeld waar technologieën helemaal niks heeft uitgemaakt.
Rusland dacht juist vorig jaar technologisch overwicht te hebben.
Nu hebben ze voor het grootste deel simpeler middelen die overgebleven zijn en vooral veel massa (als in numeriek overwicht)
Oekraïne had numeriek overwicht en verouderde technologie, maar moderne tactieken. Nu krijgen ze mondjesmaat modernere technologie, waarvan een groot deel nog niet ingezet kan worden omdat het nog niet geleverd is en/of de gebruikers nog opgeleid worden.
De (nabije) toekomst zal uitwijzen wat de doorslag zal geven.

Vietnam is ook een goed voorbeeld waar superieure techniek weinig anders heeft gedaan dan de leiding van de tegenstander nog steviger in het zadel te helpen. Net als de Irak-Iran oorlog.
De wil om te vechten en desnoods te sneuvelen voor je land, wanneer je op het grondgebied van je land vecht, geeft vaak de doorslag. (Ik kan me zo snel geen recente succesvolle veroveringsoorlogen herinneren.)
This doctrine is referred to as Mutually Assured Destruction, which is founded strongly in game theory and is, in itself, a form of Nash equilibrium in which both sides neither have any incentive to initiate a conflict nor to disarm. In such a game, both players must assume the other is only concerned with their own self-interest and as such, will limit risk by adopting a dominant strategy. If the balance of power was swayed by one nation building an excess of bomb shelters or a missile defense system (such as the proposed “Star Wars” project), it might have violated the doctrine of Mutually Assured Destruction and consequently initiated a nuclear war.

[Reactie gewijzigd door mrdemc op 23 juli 2024 16:59]

Offtopic:

Een aanrader is a beautiful mind te kijken.

Ontopic:

Game theory is waarschijnlijk ook de reden dat de VS momenteel China dwars zit ;)
Een simpel voorbeeld van game theory is het prisoners dilemma
Daar heeft Ridouan T. ook een oplossing voor gevonden.
In WWII was er ook probleem dat gros van veteran pilots al gesneuveld waren en dus onervaren piloten vanaf opleiding, waar fighter planes mass produced werden. Dat probleem is groter met moderne fighterjets waar de basis skills stuk hoger moet zijn .

Andervoordeel van non manned AI aircraft is dat voor mensen Gkracht limiet vervalt dus fighter jets ontworpen kunnen worden met veel hogere gkracht limiet. Ook negative gforces geen probleem zijn.
Dat is inderdaad van belang bij dogfights of het ontwijken van raketten. Maar veel belangrijker is dat een AI in staat zal zijn heel veel meer informatie in een veel kortere tijd te verwerken.

Een ander voordeel zal zijn dat kennisoverdracht van piloot op piloot per definitie onbetrouwbaar, traag en inefficient is. Een AI kan dat veel sneller en vollediger en die kennis kan dan ook nog eens bijna instantaan gedeeld worden met alle andere AI's.
And then it became self-aware...

Dat is een grappige referentie natuurlijk, maar de vraag is wel in hoeverre de mensheid een AI in de hand kan houden. Er zijn redelijk wat mensen die zich hier zorgen over maken. En daar zitten ook mensen bij die daadwerkelijk verstand hebben van het onderwerp. Het is dus niet alleen dat Facebook groepje met doemdenkers.
De grap is dat Sam Altman (de founder van OpenAI) ook zo'n bezorgt persoon was:
https://fortune.com/2023/01/26/sam-altman-chatgpt-ai-future/

You were supposed to fight them, not join them :/
De meeste luchtgevechten worden tegenwoordig BVR (beyond visual range) uitgevochten. De 'dogfight' zoals we die kennen, wordt vrijwel niet meer gedaan simpelweg doordat A2A raketten een dusdanig bereik hebben dat dat de main operation mode is die wordt toegepast. Daarvoor gebruiken ze dus de AIM120 AMRAAM, Meteor, Mica etc.
Meer info hier: https://en.wikipedia.org/...sile#List_of_BVR_missiles
Als je ziet om wat voor stompzinnige redenen mensen elkaar het licht in de ogen niet gunnen zal dat pas gebeuren als er maar één mens over is.
Welkom in de wereld van de geopolitiek. Het meest smerige spelletje op aarde wat over de ruggen van de gewone man wordt uitgespeeld. En waarom? We zijn allemaal mensen. Zijn we dan helemaal niet meer in staat om samen te leven? Volgens mij gaat het hier alleen maar om macht en geld.

Er zijn geen winnaars, alleen maar verliezers. China probeert nu de VS als Nr 1 topdog te challengen.
Ik mag hopen dat er mensen met verstand zijn, maar ik heb er een hard hoofd in. De geschiedenis herhaalt zich wederom, en wij kijken ernaar. We hebben niets geleerd.
Is het dan allemaal doom and gloom? Nou ik denk wel dat we op een punt staan dat alle seinen op rood staan, waar je ook naar kijkt, en ik doe niet aan struisvogel politiek.
En als je naar de voeselketen kijkt, dan nemen wij een prominente plaats in bovenin die keten. Binnen die keten heeft alles een natuurlijke vijand, behalve de mens...
De gewone man, zoals jij noemt, kan stemmen met de portemonnee.
Elke keer als je meuk bij de Action haalt sponsor je China's world domination.
Elke keer als je iets lokaals koopt ga je het gekkenhuis tegen.

Als we dat allemaal massaal zouden doen is het met een paar jaar over met die spelletjes.
Maar we zijn met z'n alleen veel te lui, en ik moet bekennen dat ik mijzelf er ook wel eens schuldig aan maak.
De gewone man denkt alleen maar in termen van: waar koop ik hetzelfde product het goedkoopst. Die eenheid van een bevolking waar jij naar verwijst gaat nooit gebeuren, anders dan in tijden van een enorme crisis. En zolang we het nog 'goed' hebben, gaat dat nooit gebeuren. Daarom wordt het systeem ook met alle mogelijke manieren in de lucht gehouden. Uiteindelijk is dat m.i. op termijn niet meer houdbaar.
Welkom in de wereld waar mensen leven.
Dit gebeurt op elk niveau waar mensen met elkaar te maken hebben. (Alleen zijn de gevolgen op het hoogste niveau iets dramatischer.)
Zet drie mensen in een werkgroep met ieder eigen verantwoordelijkheden en belangen, die deels overlappen (of misschien zelfs deels botsen) en je krijgt geheid wrijving. Het kan kort duren of lang duren, maar op een gegeven moment mondt die wrijving uit in bonje.
Ah, de Pyreus overwinning.
Ah, die moest ik opzoeken. Weer wat geleerd, waarvoor dank. 8-)
En het is Pyrrusoverwinning... blijkbaar. :9
Het is maar de vraag waar dit naar toe gaat. Naar AI systemen, die oorlog met elkaar gaan voeren, om voor ons volledig onduidelijke redenen?
Ik herinner me een verhaal van een paar jaar geleden, waar Microsoft robots had gemaakt, die met elkaar konden praten en zo slimme dingen konden bedenken. Na verloop van tijd ontwikkelden ze een, voor hun, veel efficiëntere taal, die voor MS niet meer te begrijpen was en waarop uiteindelijk de stekker er uit getrokken is.
Het is maar te hopen, dat we bij de AI wapens de stekker er nog uit kunnen trekken. De eerste voorzorg van de AI systemen moet haast wel zijn om te voorkomen dat de mens hun hogere doel in de weg kan zitten.

Ik zie nog niet zo, dat Asimov's Drie wetten van de robotica als basis worden ingebouwd.

[Reactie gewijzigd door CPV op 23 juli 2024 16:59]

Yep, dat verhaal bedoelde ik.
1 complottheorie is dat ze in japan al een probleem hadden met 4 militaire robots. 29 wetenschappers dood.

[Reactie gewijzigd door Hatseflats op 23 juli 2024 16:59]

Wereldvrede is niets meer dan een utopie. Geheel onhaalbaar En zelfs al zal dat lukken is het nog moeilijker om het te behouden. Investeren in defensie, legers is en blijft noodzakelijk.
Valt wel mee hoor. Je moet gewoon nucleare wapens hebben. Iets wat we Oekraine hebben afgepakt.
Je hebt gelijk. Laten we iedereen een paar kernbommen geven, dan is wereldvrede waarschijnlijk binnen handbereik. :+
Wat ik ervan weet is het volgende.
Wij hebben Oekraine nooit wat afgepakt! Wat er wel is gebeurt is het volgende.
Toen de koude oorlog afglopen was en het toen bekende Sovjet Unie (USSR) uit elkaar viel werd er door onderhandelingen besloten om de Atoom wapens evenals de TU-95 en dacht zekfs de Tu-160 Blackjacks terug te geven aan Rusland. Hiebijj werd er een niet aanvalsverdrag opgesteld dat door beide landen werd ondertekend ook door Rusland.ik dacht ergens in het jaar 1994.

Verdiep je eens in de geschiedenis van Rusland en alle landen erom heen!.
Bijvoorbeeld het land Polen dat als een jojo uitelkaar getrokken word dan weer bij die behoorde dan weer bij een ander.

Wij als westerling weten niet zoveel van die geschiedenis.
Nou ja, piloot is prima zolang de wapensystemen maar in de handen van een echte piloot blijven... Ik denk dat je het wel nodig zou hebben stel dat de piloot bewusteloos raakt (ook voor andere doeleinden dan militair natuurlijk).
In hoeverre is een piloot vrij om zelf te bepalen wanneer wapens moeten worden ingezet? Het leger is een heel erg top-down gestuurde organisatie waarin de uitvoerenden vaak poppetjes zijn die de strategie uitvoeren. En de strategische beslissingen worden vrijwel altijd op een hele gestructureerde manier genomen. Het is niet zo dat er een master individu is die briljante ideeën heeft om een oorlog te voeren.
Met bombarderen is een piloot daar zeker vrij in. De piloot krijgt misschien een bepaalde missie mee, maar moet zelf verificeren ter plekke of het verantwoordt is (ziet het doelwit er wel uit zoals verwacht, is het te risicovol kwa omgeving, etc.).

Hoe dat bij dogfights zit zou ik zo snel niet weten. Daar kan niet handelen toch snel het leven van je wingman kosten natuurlijk.
Tom Clancey heeft daar een mooi boek over geschreven: Woestijnstorm. (Desert Storm, inderdaad) - en daar wordt juist uitgelegd dat de diverse legeronderdelen in grote problemen kwamen tijdens en na de oorlog in Vietnam omdat de beslissingen op een te hoog niveau werden genomen.

Door een herstructurering werden bevoegdheden veel meer verdeeld: de leiding bepaalt wat er moet gebeuren (strategisch) en de onderdelen bepalen hoe het gebeurt. Of niet, als blijkt dat het doel niet te realiseren is.

Of het nu nog steeds zo werkt weet ik niet, maar het Amerikaanse leger had door die herstructurering tegen Irak een geweldige slagkracht.
Ik meen dat dit ook een gedeelte van de verklaring is voor slechte prestaties van het Russische leger in Oekraïne (naast slecht materiaal, slechte bevoorrading, etc.). De Russen hebben een erg top-down structuur, en eenheden/soldaten zijn niet getraind om zelf taktiek te bepalen bij veranderende omstandigheden. Wanneer dan bijvoorbeeld een kommandant uitgeschakeld wordt resulteert dit in stuurloze eenheden, met slechte prestaties als gevolg.
Door de NAVO-training van de afgelopen jaren is het tegenovergestelde steeds meer het geval voor het Oekraïense leger, wat ten dele hun successen kan verklaren.
Computers gaan waarschijnlijk niet doordraaien en rondlopen met een ketting van afgesneden oren of meisjes verkrachten.
Eerlijk gezegd heb ik meer vertrouwen in een AI dan een mens.
HK uit de terminator films is niet wenselijk?

Zo is er natuurlijk nooit sprake van vooruitgang.
Dus dan heb je een AI die razendsnel op een dreiging kan reageren en dan laat je het aan die -relatief trage- piloot over om de handeling uit te voeren. Dan heb je uiteindelijk niet meer dan een veredelde auto-pilot zoals in een Tesla. Dat is waarschijnlijk niet waar het leger naar op zoek is.
Klinkt interessant. Heb je daar een bron voor?
Waarschijnlijk niet, maar de opmerking is generieker wel waar: mensen zijn, ook in wapensystemen, de zwakke schakel. Fysiek zeker, maar mensen voegen ook een aspect toe waar je in een stressvolle gevechtssituatie geen behoefte aan hebt: emotie.
Een gevechtspiloot dropt dankzij die emoties geen bom op een bus vol kinderen.
De afgelopen honderd jaar zijn alle bommen afgeworpen door mensen. En daarbij zijn nooit kinderen omgekomen? Hiroshima? Nagasaki? Vietnam? Rotterdam? Berlijn?
Vrijwel elke oorlog laat heel duidelijk zien dat juist emoties achter de meest vreselijke oorlogsmisdaden zitten. Je hoeft alleen maar de verhalen te lezen van wat de amerikanen in Vietnam en de Nederlanders in Indonesie hebben uitgevroten en je weet dat je mensen zo ver mogelijk bij de rode knoppen vandaan moet houden.
Eerste H-K een feit...
AI achter wapensystemen. What could possibly go wrong..
Als ik de bron bekijk gaat het niet om AI in het wapen systeem, maar de vlieg manoeuvres tijdens een gevecht.
executed autonomous tactical maneuvering while maintaining real-world airspace boundaries and optimizing aircraft performance
Een voorbeeld van een tactische manoeuvre is het zodanig naderen van de vijand dat het precies binnen het bereik van je eigen wapens is, daarna wegsturen om zo snel mogelijk buiten het bereik van de tegenstander te kunnen zijn indien ze terugvinden, terwijl je wel met systemen zoals radar na kunt gaan of je je doel geraakt hebt, om tot slot indien noodzakelijk nog een keer te vuren.

Alle mogelijke situaties op voorhand berekenen geeft je zo veel data dat de piloot uiteindelijk zelf ergens beslissingen moet nemen. Ik kan me voorstellen dat AI een betere afweging kan maken aan de hand van eerdere situaties en de piloot zo beter in kan schatten welke tactiek het beste resultaat geeft.
De AI kan exacte burst calculeren waar hit probability hoogst is en daarmee de ammo waist reduceren , ook is mogelijk om dit te calculeren bij elke perspectief. And target speed vector.
Er was WWII pilot die dat ook kon haaks op flight path . Omdat hij ook zo op vogels jaagde dus ervaring in had. Probleem is dat zijn shotdowns buiten camera beeld waren dus op andere manier gevalideerd moesten worden zoals wrak met gaten in de zijkant.
Ik moest dit drie keer lezen en nog snap ik niet wat je hier geschreven hebt. Ben je zo’n chatbot of loop je wat te dollen?
Hij zegt dat een WWII piloot zeer bedreven was in het neerschieten van vliegtuigen. Niet door te schieten naar waar het vliegtuig nu is, maar waar de kogels en het vliegtuig elkaar kunnen raken. Dus ook haaks op de vliegrichting.
Volgens mij zijn gevechtsvliegtuigen al lang met zo'n systeem uitgerust. Zelfs tijdens de Tweede Wereldoorlog hadden ze daar al een eenvoudig systeem voor, namelijk de gyro gunsight. Dat zal in de tussentijd echt wel verder ontwikkeld zijn naarmate er meer van computers gebruikgemaakt werd. Het lijkt mij ook niet dat je daar specifief een AI voor nodig hebt aangezien de berekeningen daarvoor nu ook weer niet zo ingewikkeld zijn.
Bijna alle fighter jets hebben gewoon fixed barrels die aan het frame van de jet vastzitten, en geen gimbals. Voor te helpen met richten zijn er wel lead/lag PIP's. Genoeg info van te v inden op het internet.
Ik heb dan ook nergens beweerd dat ze geen fixed barrels zouden hebben.
Dat noemen ze een Continuously computed impact point (CCIP):
https://nl.wikipedia.org/...sly_computed_impact_point
Dat is toch al 99,9% van wat je een AI wilt laten doen? Het schieten van de wapens kan nog prima met een videostream en dat lijkt mij het minst lastige om te implementeren aan een AI.

[Reactie gewijzigd door Nimac91 op 23 juli 2024 16:59]

En wat is het primaire doel van een straaljager?
Mensen en wapens zijn ook niet zo'n goede combinatie hoor...zie de afgelopen eeuwen.
Een militaire actie wordt op deze manier enkel een financiele kwestie. Maar andere regimes gaan het toch ook gebruiken, dan kan je maar beter voorop lopen.
Op AI kun je altijd vertrouwen, spreekt altijd de waarheid en maakt nooit fouten. 8)7

"Hasta la vista, baby"

[Reactie gewijzigd door renecl op 23 juli 2024 16:59]

Mensen achter wapensystemen. What could possibly go wrong?
En ChatGPT het vluchtplan laten opstellen. Want die heeft overal verstand van, toch?
Is die autonoom dan?
ChatGPT heeft nergens verstand van, maar kan, niet gehinderd door intelligentie, een A4tje volkletsen.
20 jaar geleden heette dat een kretelogiemixer.
Of een manager... (daar zijn ook merendeel lege dozen bij)

[Reactie gewijzigd door Quiller op 23 juli 2024 16:59]

Moet jij eens kijken hoe organisaties instorten zonder management. Ik heb bij diverse bedrijven gezien wat er gebeurt als er zelfsturende teams worden ingevoerd. Het merendeel gaat naar elkaar zitten kijken en weet het niet meer. Slecht een heel klein deel van de medewerkers kan zonder leiding zelfstandig werken en ook de grote lijnen begrijpen en niet uit het oog verliezen.
Dat hoeft niet maar kan gebeuren. Ik heb gewerkt in bedrijf waar dat stertaken genoemd werden. Het probleem dan is dat personeel moet hebben dat ook zelfstandig en van niveau dat het deze taken goed kan invullen. Je kan dat niet zo even als reorganisatie invoeren. Naast dat managers ook van top tot brandhout kunnen zijn.
Genoeg bedrijven die door mismanagement ten ondergaan. Naast dat sommigen te veel bovenkader managers hebben dan nodig is. Ipv work force.
En bij de grotere bedrijven beleid eerder wordt gestuurd om aandeelhouders blij te maken of accountant ipv langetermijn visie investeringen.
Quote: "Genoeg bedrijven die door mismanagement ten ondergaan. Naast dat sommigen te veel bovenkader managers hebben dan nodig is"
Uitstekend verwoord SG.
Wou dat je eens een kijkje in de keuken kon doen bij Connexxion.
Daar gebeurd namelijk precies wat jij beschrijft en waarvan de klanten enorm de dupe zijn.

[Reactie gewijzigd door Nemesh op 23 juli 2024 16:59]

Nu noemen we dat een consultant
Nee, een consultant is iemand die vraagt of hij je horloge even mag lenen en je dan vertelt hoe laat het is.
Nee, een consultant kijkt bij de ene client op het horloge en vertelt bij een andere client de tijd. Dan lijkt het net of hij er verstand van heeft terwijl hij slechts doordat hij met meerdere organisaties praat informatie verzameld en verspreid.
De beste consultants leren je vervolgens ook klokkijken.
Als de zelfvliegende vliegtuigen van de vs en china boven de Stille Oceaan de oorlog gaan uitvechten lijkt dat nog niet zo'n slecht idee toch?
Hoeven de wederzijdse presidenten alleen nog maar af te spreken dat de uitslag bindend is.
Nou nee, bedankt. Dan zijn we in no time allemaal onder het schrikbewind van één land.
Net als bij bedrijfsovernames: "voor u verandert er niets ..."
{bombardeer de slechten}
Zullen weinig mensen overblijven
Skynet begins to learn at a geometric rate. It becomes self-aware at 2:14 a.m. Eastern time, August 29th. In a panic, they try to pull the plug.
Ik heb net wat Horizon zero dawn gespeeld ...dus uhm :|
Of juist goed.

Namelijk, verreweg de meest overwinningen in gevechten in de wereld zijn tot nu toe behaalt met speren en knuppels.
Nooit de vooruitgang trachten te stoppen, anders komen we er nooit achter.
Ja want mensen staan bekend om hun emotionele stabiliteit.
Het Amerikaanse leger haalt mensen na een jaar van het slagveld omdat ze anders doordraaien en niet meer kunnen integreren in de civiele maatschappij.
AI of algoritme, of valt algoritme tegenwoordig onder AI?
In theorie niet. In de marketing wel.
AI is nu al het buzzword van 2023.
Algoritme was het in 2022. Alsof algoritmes toen zijn uitgevonden.
Ik wens je veel succes om dit te coderen in een algoritme, gaat je niet lukken. Het is waarschijnlijk een model gebaseerd op reinforcement learning of statistical inference.
AI valt onder algoritme, zo'n beetje.

Een algoritme is een recept. Met deze input en deze handelingen komt er die output uit. Wat we tegenwoordig AI noemen is doorgaans patroonherkenning. Daar kan je nog wel beschrijven welke input in welke output resulteert, maar het middenstuk, hoe die output tot stand komt, kan je niet precies uitleggen.

Ai is een vaag begrip, want het is afhankelijk van je definitie van intelligentie en dat is nogal subjectief. Als je intelligentie definieert als 'kan iets slims beter dan een mens' dan kan je dat patroonherkenning AI noemen. Ik doe dat niet.

[Reactie gewijzigd door TheekAzzaBreek op 23 juli 2024 16:59]

Uiteindelijk gaan we naar een situatie waar er geen piloot meer is en de AI het meeste zelf kan beslissen. Het hoofdprobleem is dat datacommunicatie vaak niet kan. Om bijvoorbeeld onzichtbaar te blijven of omdat de vijand een jammer heeft aangezet. Dan moet het vliegtuig zelf beslissen. Maar zo ver zijn ze natuurlijk nog lang niet.

In deze bestuurt AI enkel het vliegtuig. Piloten moeten vaak heel veel dingen tegelijk doen en dankzij automatisering kunnen ze bepaalde taken uitbesteden.

Als ik de bron mag geloven liggen hun goals verder: "The goal of AACO is to develop and fly an advanced AI-driven autopilot capable of performing aviate and navigate functions and autonomous behaviors such as advanced intelligence, surveillance and reconnaissance and BVR combat."

BVR = Beyond visual range. Ik versta daaruit beslissingen nemen op basis van radar. Moderne vliegtuigen zoals de F35 hebben een heel krachtige radar en kunnen vaak al een ATA raket (Air to air) afschieten (zoals de AIM-120_AMRAAM) nog voor de vijand hen kan zien (op radar) omdat ze een stealth ontwerp hebben. Dat maakt ze enorm dodelijk.

Misschien kan de AI ook wel voor de piloot beslissen waneer het tijd is om zijn schietstoel te gebruiken. Soms is 1 seconde te laat al dodelijk Meestal heeft de piloot niet de tijd en data om te bepalen of een raket lang hem zal vliegen of hem net zal missen.

[Reactie gewijzigd door Coolstart op 23 juli 2024 16:59]

Het is, zoals ik het begrijp, al verder dan het VISTA systeem.

''As of 14 June 2021 VISTA is in the midst of upgrading. In addition to replacing the VISTA Simulation System (VSS) with a newer, upgraded version of the same system, a System for Autonomous Control of Simulation (SACS) will be added in order to operate X-62A as a Skyborg. One application is as autonomously piloted aircraft, perhaps as robotic wingman to a manned aircraft''

https://en.wikipedia.org/wiki/General_Dynamics_X-62_VISTA
Dave, I can not let you shoot that.. :+
Skynet Initialising!

Op dit item kan niet meer gereageerd worden.