Avioniq: AI löser inte allt, men det kan lösa mycket om det används rätt
och underrättelse
Mikael Grev, vd för Avioniq, diskuterar utmaningarna med att införa AI i det militära rummet och förklarar hur Avioniq närmar sig tekniken för att stödja stridsflygsoperationer.
Artificiell intelligens (AI) är ett kraftfullt verktyg för att lösa vissa typer av problem i det civila samhället, särskilt i sammanhang där det är acceptabelt att resultaten inte är helt exakta. Inom civila tillämpningar är det ofta inte avgörande att resultaten är helt reproducerbara eller att det går att förstå varför AI fattar vissa beslut. Därför upplevs AI som i princip obegränsat i dessa miljöer.
Inom det militära området gäller andra förutsättningar. Här kan noggrannhet vara skillnaden mellan liv och död, och människan behöver vara delaktig i beslutsfattandet under överskådlig framtid. Civila AI-lösningar kan därför inte överföras direkt till militära tillämpningar.
Den typ av AI som fått mest uppmärksamhet är generativ AI, till exempel språkmodeller, bildgenerering och videoproduktion. Dessa system tar emot data, till exempel en textfråga, ljnspelning eller bild, och skapar ny data som svar, till exempel text, ljud eller bild.
Generativ AI kännetecknas av att antalet möjliga kombinationer av indata och resultat är mycket stort. Om man till exempel skapar en bild från text kommer resultatet att se olika ut varje gång. Det gör det svårt att verifiera om resultatet är korrekt eller användbart. I många fall saknas ett facit. För att bedöma kvaliteten krävs expertkunskap, vilket tar mycket tid och resurser.
Om generativ AI används inom ett uppdrag som luftstrid kan svaret också variera varje gång, och det är inte alltid tydligt vad som är ett bra eller dåligt svar. Stridspiloter som har expertkunskap för att bedöma dessa svar är få. Deras tid används sällan till att träna AI-system.
En annan utmaning är att generativ AI bara kan ge rimliga svar när hela problemet finns med i själva frågan. I verkliga militära situationer finns ofta viktig information i andra system, i operatörens erfarenheter eller i sådant som inte är formulerat som input. Då blir det svårare för AI att förstå helheten.
Ett klassiskt exempel är att det är relativt enkelt att bygga AI som spelar schack mycket bra. Det är betydligt svårare att skapa AI som spelar schack tillsammans med en människa. På samma sätt kan man skapa AI som är effektiv i luftstrid, men bara om systemet får agera helt fritt och alla regler är kända. När AI ska samarbeta med en mänsklig operatör, som har mer information än AI har tillgång till, blir det genast mer komplicerat.
Gränssnittet mellan människa och maskin är en utmaning. För att samarbetet ska fungera måste båda parter förstå varandra. AI har i dag inte förmågan att förklara varför den agerar som den gör, och den kan inte anpassa sig till mänskliga prioriteringar som inte är inprogrammerade.
I luftstrid handlar framgång om att hela tiden göra avvägningar mellan olika lösningar. För att AI skulle kunna ersätta en pilot, även i delar av ett uppdrag, skulle den behöva tillgång till nästan hela pilotutbildningen, omfattande riskbedömningar och fullständig uppdragsinformation. Mycket av detta förändras dessutom kontinuerligt. Därför behöver den mänskliga operatören förstå vad som händer och kunna justera AI:ns agerande under uppdragets gång.
Om AI förlorar ett parti schack får det inga större konsekvenser. Inom militära tillämpningar, särskilt i luftstrid där allt går snabbt, kan ett misstag få allvarliga följder.
Det innebär inte att AI saknar plats i militärt flyg. Tvärtom. På Avioniq har AI använts för luftstridstillämpningar sedan 2016. Redan från början har vi varit medvetna om begränsningarna. Istället för att försöka skapa en AI som inte går att besegra i luftstrid, vilket är ett otydligt definierat problem, har vi delat upp utmaningen i mindre delar. Vi kallar detta arbetssätt för verifierbar AI.
Vi ställer enklare, tydligt avgränsade frågor och använder simuleringar för att direkt verifiera svaren. Exempelvis:
”Hur många g måste flygplanet svänga för att undkomma en inkommande missil av typen AA-10C?”
Det är en konkret fråga med ett konkret, verifierbart svar. Om vi har en tillförlitlig modell av missilen och kan kontrollera utfallet, blir resultatet en exakt siffra, till exempel mellan ett och nio.
Att veta hur många g flygplanet behöver svänga med är avgörande. Om piloten svänger för lite riskerar han att bli träffad. Om han svänger för mycket tappar han energi och initiativ. Verifierbar AI kan ge det exakta svaret, vilket avlastar piloten från att behöva fatta beslutet själv i realtid.
På det här sättet förstärker vi operatören, vi ersätter den inte. Nyckeln är att veta vilka frågor som är lämpliga att ställa. Vi anser att de som bäst kan formulera dessa frågor är stridspiloter eller luftstridsledare med teknisk bakgrund. Därför har Avioniq ett team som består av både AI-ingenjörer och erfarna piloter.
Vi använder denna metodik på många delar av ett luftstridsuppdrag. Varje AI-komponent kan sedan integreras i stridsflygplan, luftförsvarssystem och ledningssystem, utan att människan tas bort ur kedjan. På så sätt kan systemet utvecklas stegvis, utan behov av att bygga ett allt-i-ett-AI-system med höga risker.
Oberoende tester visar att vår metodik kan öka effektiviteten i luftstrid med flera hundra procent. När ett enda flygplan kan utföra uppgifter som annars kräver tre, innebär det ett avsevärt operativt och ekonomiskt värde för flygvapnet. Det finns därför goda skäl att tro att AI, rätt använt, kommer att spela en viktig roll i framtidens militära system.