USA:s regering tar steg framåt i att adoptera artificiell intelligens för militära ändamål. Denna vecka håller Pentagon ett symposium tillsammans med ledare inom branschen för att diskutera potentialen hos stora språkmodeller, kända som LLMs, samt andra ny teknik.
Symposiet kommer att behandla frågor som etiken bakom användningen av LLM i försvarssammanhang, de cybersäkerhetsrisker som är förknippade med dessa system och hur tekniken kan integreras i vardagliga arbetsprocesser.
I Washington råder det konsensus om att AI kommer att spela en avgörande roll i framtiden för detta fält, men det krävs fortfarande omfattande tester för att säkerställa dess effektiva användning – och för att försäkra att det inte kan manipuleras av fiender eller hackare.
Användningen av AI – och dess risker
Försvarsdepartementet är särskilt intresserat av dessa språkmodellers förmåga att snabbt analysera enorma mängder information.
Detta skulle kunna möjliggöra en rad nya möjligheter för militären och underrättelsetjänsten. Forskare menar även att LLMs kan vara till hjälp i utbildningen av officerare genom avancerade krigssimulationer och till och med bistå i beslutsprocesser i realtid.
Enligt Paul Scharre, vice president vid Center for a New American Security, kan de mest lovande användningsområdena för AI ännu vara oupptäckta.
Trots den amerikanska regeringens entusiasm, stöter introduktionen av denna nya teknik på ett betydande hinder: de frekventa felen som hittills har upptäckts.
För hemmabruk kan dessa fel verka harmlösa. Men inom statliga tillämpningar kan det leda till kaos. Tänk dig att hantera sådana misslyckanden under en operation utförd av Pentagon eller någon annan försvarsavdelning världen över.
Forskaren Nathan VanHoudnos från Carnegie Mellon University presenterar ytterligare ett scenario där komprometterad AI kan skada regeringar:
“En fiende kan tvinga ditt AI-system att agera mot din vilja. Eller så kan en motståndare få sitt AI att lära sig felaktigt,” säger han.
För USA:s myndigheter är det fortfarande en öppen fråga om dessa problem kan lösas – och detta bör ses som “branschens största utmaning”.
Forskarna erkänner att LLMs fortfarande har en lång väg att gå innan de kan användas på ett tillförlitligt sätt för ändamål med hög risk.
Tidiga tecken
Som det gamla ordspråket säger, finns det ingen rök utan eld. I början av januari ändrade OpenAI, skaparen av ChatGPT, sin användarpolicy och slutade förbjuda användning av tekniken inom “militära och krigsförande” områden.
Företaget angav då att denna förändring var en naturlig del av deras uppdateringar av policyer utan att ge någon specifik förklaring. En månad senare blev dock orsaken till upphävandet av dessa begränsningar mer uppenbar.