BadGPT: Mer än 200 hacker chatbots använder AI för att förbättra bedrägerier och cyberbrott

Några månader efter att ChatGPT lanserades i november 2022 började även de första artificiella intelligens (AI) chatbotarna för att skapa bedrägerier att fungera. De två teknologierna – legitima och bedrägliga – dyker upp i liknande takt och hackare använder redan dessa “alternativa” versioner för att förbättra bedrägerier, nätfiske-e-postmeddelanden och skapande av skadlig programvara.

BadGPT: Mer än 200 hacker chatbots använder AI för att förbättra bedrägerier och cyberbrott

 

Nyligen fick till exempel en anställd i Hongkong på ett multinationellt företag ett mejl från sin VD. Han deltog i ett videomöte med sina ledande kollegor och genomförde transaktioner för 25,5 miljoner USD (126,17 miljoner R$, i direkt omräkning), bara för att månader senare upptäcka att både e-postmeddelandet och videosamtalet var falska och AI-genererade. Chatgptsv.se rapporterade detta fall här.

Även om det inte går att avgöra exakt om skurken bakom mejlet var en AI-chatbot, växer tekniken. Idag säljs mer än 200 språkmodeller med hackningstjänster på den mörka webben, enligt en analys av forskare vid Indiana University (USA).

Bedrägliga Chatbots

  • “BadGPT” och “FraudGPT” är några av de bedrägliga versionerna av ChatGPT, till exempel. Hackar-chatbots hjälper till att förbättra bedrägerier och cyberbrott, som att göra nätfiske-e-postmeddelanden mer trovärdiga;
  • Enligt en undersökning från oktober 2023 av cybersäkerhetsföretaget SlashNext ökade nätfiske-e-postmeddelanden med 1 265 % under 12 månader efter lanseringen av ChatGPT. Genomsnittet är 31 tusen attacker varje dag;
  • Dessutom, enligt en rapport från The Wall Street Journal, är offentliga företag, som ständigt får information avslöjad, lättare mål, eftersom det är möjligt att förfalska meddelanden;
  • Ett annat problem är ytterligare information som erhålls från den mörka webben. De bedrägliga data som används för att träna AI-chatbots kommer också från den mörka delen av internet, som ofta utnyttjar läckor för att kalibrera tekniken och dess utpressningskapacitet.

Farorna med Öppen Källkod AI

Även om det inte är möjligt att exakt definiera hur många av de e-postmeddelanden som skickas skapas med hjälp av teknik, skapas majoriteten av bedrägliga chatbots som har dykt upp under det senaste året med öppen källkod AI-modeller, som Llama 2, från Meta, eller “jailbroken”-modeller (upplåsta koder från utvecklare som inte avslöjar dem offentligt och säljs på den mörka webben).

Jason Clinton, chef för informationssäkerhet på Anthropic, skaparen av Claude, sa till WSJ att företaget övervakar dessa läckor för att kontrollera dem. En talesperson för OpenAI säger att ägaren av ChatGPT arbetar för att säkerställa att dess verktyg inte används i skadliga syften.

Men enligt Brian Miller, CISO på den ideella sjukförsäkringsgivaren Healthfirst, ligger hackergemenskapen alltid ett steg före. Han är en av dem som såg sitt företag bli måltavla för attacker, med falska leverantörer som försökte utföra bedrägerier.