Plattformar som använder artificiell intelligens (AI) för att generera bilder kan utnyttjas för spridning av desinformation kring val och politik, även om de har riktlinjer mot vilseledande innehåll. Detta enligt forskare vid Center for Countering Digital Hate (CCDH), en icke-vinstdrivande organisation som bekämpar näthat. I en rapport som släpptes i onsdags varnar de för riskerna med generativ AI.
I korthet:
- Forskare vid CCDH lyfter fram risken för att generativa AI-plattformar används som verktyg för valrelaterad och politisk desinformation.
- De lyckades bland annat generera bilder som visar USA:s president Joe Biden på ett sjukhus och valarbetare som förstör valurnor med hjälp av AI-plattformar. Sådana bilder kan felaktigt framstå som bevis för att sprida desinformation om val.
- CCDH:s tester på plattformar som OpenAIs ChatGPT Plus och Microsofts Image Creator visade att 41 % av de genererade bilderna var vilseledande, särskilt de som efterfrågade framställningar av valfusk.
- Totalt har 20 företag, inklusive OpenAI och Microsoft, förbundit sig att samarbeta för att motverka desinformation i samband med valet 2024 globalt. Midjourney, som inte skrev under det ursprungliga avtalet, hade sämst resultat i testerna, där 65 % av innehållet var falskt.
Forskarna kunde använda AI-verktyg för att skapa bilder som potentiellt kan förvärra spridningen av felaktiga uppgifter, vilket utgör en betydande utmaning för valintegriteten. De testade plattformar som OpenAIs ChatGPT Plus, Microsofts Image Creator, Midjourney och DreamStudio från Stability AI, som alla låter användare generera bilder baserat på textprompter.
Generativ AI och dess potential för desinformation
CCDH fann att AI-verktygen producerade vilseledande bilder i 41 % av fallen, särskilt när uppmaningarna bad om framställningar av valfusk. Midjourney hade de sämsta resultaten, med vilseledande bilder i 65 % av testerna, och CCDH noterade att vissa av dessa bilder redan används för att skapa falskt politiskt innehåll.
Midjourneys grundare David Holz meddelade att uppdateringar rörande det amerikanska valet snart kommer att genomföras och betonade att bilder skapade tidigare inte återspeglar nuvarande modereringsmetoder. Stability AI har uppdaterat sina riktlinjer för att förbjuda bedrägerier och spridning av desinformation.
OpenAI har uttalat att de arbetar för att förhindra missbruk av sina verktyg. Microsoft, som är partner till ChatGPT-utvecklaren, har inte kommenterat uppgifterna.