Se F-16 pilot få lammetæv af AI i luftduel

Håneretten er i den grad på maskinernes side efter torsdag aften, hvor den kunstige intelligens Heron gentagne gange gennemhullede en amerikansk F-16 pilot i en luftduel.

Piloten, der gik under navnet Banger, fik lynhurtigt ødelagt sit fly af virtuelle maskingeværkugler, og efter fem kampe var resultatet 5-0 til Heron fra firmaet Heron Systems. Og for at gøre historien endnu værre - set fra menneskesiden - så var Banger nok besvimet i virkeligheden, da han i lang tid trak 9G i cockpittet, hvilket kan sende selv de sejeste piloter til tælling.

Se Heron kæmpe mod Banger 4.40.00 inde i eventet

Kampen var finalen i den såkaldte Alpha Dog Fight, en virtuel luftduel arrangeret af udviklingsenheden DARPAs (Defense Advanced Research Project Agency), der er underlagt det amerikanske militær.

Hvor vi gennem tiden har set kunstig intelligens boltre sig lystigt i jeopardy, skak og så videre, så valgte Darpa at invitere AI-udviklere til at dyste om at vinde og kæmpe mod hinanden og mod F-16 piloten Banger, der er anbragt i en simulator med joystick og virtual realitybriller. I kampen er missiler forbudt. Deltagerne må kun bruge fremadrettede maskingeværer.

AI-pilot fik 4 mia. træningstimer på under et år

De indledende runder fandt sted helt tilbage i november 2019, og frem mod i går har otte firmaer, herunder store udviklere som Lockheed Martin, kæmpet om at nå i finalen. Med andre ord er AI-algoritmerne - som i flere tilfælde bygger på DRL (Deep Reinforcement Learning) - blevet trænet og trænet, og udviklerne af Heron anslår, at deres AI-pilot har været gennem fire milliarder træningssimulationer, og har oparbejdet mindst 12 års erfaring, siger maskinlæringsingeniør Ben Bell til Defense One.

Læs også: Bliver kunstig intelligens et masseødelæggelsesvåben?

DRL kombinerer to kendte machine learning teknikker: Deep learning og reinforcement learning, der groft sagt gør det muligt for at genkende og lære af observationer og handlinger uden anden menneskelig indgriben end et feed-back signal fra udviklerne, der fortæller AI'en hvor godt den klarede sig - og hvor slem en fejl er.

Darpa-direktør: Vi ser begyndelsen på menneske-maskine symbiose

For Darpa er Alpha Dog Fight naturligvis mere end show og underholdning. Selvom det også er show og underholdning med værter i studiet.

For Darpa handler det om at vise piloterne og omverdenen, at AI-algoritmerne er pålidelige og en gevinst for piloterne. I fremtiden er det nemlig AI-algoritmerne, der skal være piloternes “wingmen” i form af AI-styrede fly, som flere flyproducenter udvikler på. Og AI ventes også at få en plads i flyet sammen med piloten, så han/hun kan koncentrerer sig om de opgaver, mennesket er bedst til.

Læs også: Internationale forskere boykotter universitet af frygt for kapløb om dræberrobotter

Alpha Dog Fight er nemlig knyttet til udviklingsprogrammet ACE (Air Combat Evolution), som netop handler om at automatisere større dele af piloternes opgaver i cockpittet.

»Hvad vi ser her er begyndelsen på noget, som jeg vil kalde menneske-maskine symbiose. Vi skal vænne os til at mennesket, der sidder i cockpittet og lader sig flyve af en AI-algoritme, i bund og grund er ét våbensystem, hvor mennesket gør, hvad mennesket er bedst til, såsom overordnet strategisk tænkning, og AI'en gør, hvad AI'en er bedst til,« siger Timothy Grayson, der er direktør for det strategiske teknologikontor hos Darpa til Defense One.

Læs også: Amerikanske missiler skal finde deres egne mål ved brug af kunstig intelligens

Forud for torsdagens luftduel havde programchef for det strategiske teknologikontor hos Darpa, Dan "Animal" Javorsek, også i en pressemeddelse understreget betydningen af luftduellen for udviklingsarbejdet:

»Uanset om menneske eller maskine vinder, så handler Alpha Dog Fight om at øge tilliden til AI-systemer. Hvis vinder AI'en høster respekt fra en F-16 pilot, så er vi kommet et skridt nærmere på at opnå et effektivt menneske-maskine team i luftdueller, og det er hele målet for ACE-programmet,« siger han.

AI har én ulempe: Må ikke lære under luftduel

Darpa har tidligere demonstreret, at AI-algoritmer kan vinde over piloter. Det gjorde de allerede tilbage i 2016 med algoritmen Alpha. Men siden er algoritmerne blevet langt bedre. Og Heron viste sig altså som klar vinder.

I kampen mod mennesket er det værd at bemærke, at Heron faktisk har en indbygget ulempe i forhold til sin menneskelige modstander. Hvor Banger kan lure på sin modstander og lære af hans stil og fejl, så er Heron udelukket fra at lære i selve kampøjeblikket. Det giver Banger en fordel, som også er tydelig i finalen, hvor Banger skifter taktik undervejs, og klarer sig i længere og længere tid. Men han lærer ikke hurtigt nok, og bliver skudt ned.

Læs også: Har de selvstyrende kamprobotter allerede vundet krigen?

Men hvorfor ikke lade Heron lure på sin modstander og ændre taktik undervejs i duellen? Det spørgsmål er faktisk helt essentielt i diskussionen om maskinernes rolle i kamp. For hvis man tillod Heron at ændre taktik, så fjernede man også den menneskelige indflydelse i beslutningsprocessen, og det er en farlig glidebane.

I Lockheed Martin har udviklerne trukket en grænse. Ifølge Lee Ritzholt, der er chef for AI-udvikling, så er deres foreløbige udgangspunkt, at de træner algoritmerne, sender dem i luften, »kommer hjem med data, lærer fra det, træner igen og bliver sendt afsted igen,« siger han.

Lockheed Martin vil ikke begrænse AI med piloternes vidom

Ifølge Lee Ritzholt har der også hersket en helt anden intern debat i udviklermiljøet hos Lockheed Martin i arbejdet med deres algoritme til luftduel: “Skriver du software med regler baseret på piloternes erfaring, eller lader du AI lære ved trial-and-error?”, siger Lee Ritzholt til Defense One.

I sidste ende valgte Lockheed Martin at bruge en trial-and-error tilgang, fordi man ville undgå at begrænse algoritmen på forhånd. Den skulle så og sige finde sin egen stil. Det indebar, at algoritmen skulle trænes helt fra bunden, eller som en nyfødt, der for eksempel til at begynde med ikke havde nogen ide om betydningen af at flyve direkte ned i jorden.

I arbejdet med at træne den betød det blandt andet, at udviklerne skulle lære algoritmen, at nogle “fejl” er væsentligere end andre.

sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

Om 15-20 år fra nu så tvivler jeg på at jagerflyene overhovedet vil være bemandet, eks kunne det være oplagt at eks UK og samarbejdsparnerne udvikler deres kommende stealth fly således at man over tid kan hive piloten ud af flyvet og indsætte en AI i stedet for, og 7 gen fly er 100% designet til AI.

For det første kan flyene performe bedre. Man kan spare pilotens vægt, cockpit og tungt udstyr/instrumenter osv. væk og have mere brændstof ombord. Og AI kan gøre brug af store mængder taktisk data og flyve flyet perfekt og sikkert vs. den menneskelige faktor som laver fejl og ikke kan flyve perfekt foruden ikke magte at behandle så meget data som en ai der kan træffe en bedre beslutning ekstremt hurtigt. Alternativt kan man indbygge systemer hvor en drone pilot kan tage over hvis nødvendigt hvor han/hun sidder i en bunker med VR udstyr monteret. Her tænker jeg eks på at eskortere passagerfly eller inspisere fly via VR udstyr og kamera.. Eller føre tilsyn og aktivere en drone pilots våben ( i fredstid eks på internationale missioner før man smider en bombe ). Man spare også enorme beløb på at træne piloter og vedligeholde fly da det reelt set kan stå i en hangar året rundt og altid har en "super skarp" super trænet "pilot" som kan alting perfekt.

  • 10
  • 5

Nu er AI heldigvis bare statistik. Men begynder den at have en drift til selvopretholdelse eller at identificere fjender mod den selv får vi et problem.

  • 4
  • 3

Et menneske som Banger har den fordel at man ved hvor han er.

AI-piloten derimod har den ulempe at man aldrig kan vide om russerne eller kineserne allerede har downloaded og kopieret ham!

  • 1
  • 6

Eller afluret svaghederne, og programeret en variant der afkoder modstanderen og målrettet modstanderens svagheder/fejl. En "billig" kopi giver ingen taktisk fordel.

  • 0
  • 0
  • 1
  • 0

Begynder det ikke at blive farligt, hvis vi tager manden/kvinden ud af krigen?

Her tænker jeg at mennesket som begrænset ressource, som vil gøre, at man tænker sig om 2-3 gange inden man igangsætter en krig?

Jovist der er tab af mennesker på den anden side, men hvis den anden side kun har tab i form af materielle ressourcer, vil man så ikke vil mere tilbøjelig til at gå i krig over mindre konflikter?

Det tager jo militæret mange år at træne en given soldat til de forskellige opgaver. Det tager trods alt kun et par minutter at uploade ny AI/software til den næste krigsmaskine.

  • 0
  • 0

Hvis man vil se en gennemgang af luftkampen, som giver et bedre indblik i hele setuppet, og hvorfor det måske ikke er helt så overraskende at AI'en vandt, så er der her en gennemgang af en tidligere F-16/F/A-18, og nuværende "Red Air" F-5 pilot:

[https://www.youtube.com/watch?v=ziCQqmEllZ...]

Hvis man ikke gider se videoen, så er nogle af hans hovedpunkter at: AI'en havde 100% situational Awareness - dvs. den kendte hele tiden modstanderens fart, retning, højde, g-påvirkning osv. Det eneste den ikke kendte var modstanderens brændstof niveau.

AI'en havde 360 synsfelt, dvs, den tabte aldrig modstanderen af syne

AI'en var programeret til at hvis der var 51% chance for at få "bullets on target" og 49% risiko for at kolidere med modstanderen, så tog den chancen og angreb.

For at score et "hit" på modstanderen, skulle man "blot" manøvrere således at den "kegle" der ses på videoen blot skulle hen over modstanderen - også på 3000 fods afstand. Der var ikke noget krav om at kanones sigtekort skulle holdes præcist over modstanderen længe nok til at man ville have ramt flyet i virkeligheden.

Den meneskelige pilot havde kun haft begrænset mulighed for at prøve simulatoren, og manglede alle det fysiske feedback som han ville få i en rigtig flyver.

Så at sige at AI ville kunne vinde i en rigtig luftduel, er nok lige tidligt nok, men det er stadig et stor fremskridt i software.

  • 3
  • 0
Bidrag med din viden – log ind og deltag i debatten