En ny studie som släpptes denna vecka av Washington Post varnar för att OpenAIs regler lätt kan kringgås för att medvetet rikta in sig på minoriteter och marginaliserade samhällen i USA, såsom latinos, med hjälp av vilseledande innehåll och politisk propaganda.
OpenAI, som utvecklar AI-modeller som ChatGPT, meddelade i januari i år att de har strikta riktlinjer för att styra verktygen som deras utvecklare skapar, för att förhindra spridning av desinformation inför valet 2024. I huvudsak är dessa regler avsedda att hindra människor från att bygga chatbotar för politiska kampanjer eller för att sprida desinformation.
Forskare har dock upptäckt att dessa regler har kryphål som kan få stora konsekvenser för underrepresenterade och icke-engelsktalande samhällen under det amerikanska valet detta år.
Hur kryphål i OpenAIs regler för AI-modeller upptäcktes
- Digital Democracy Institute of the Americas, en forskningsenhet som studerar hur latinos navigerar på internet, genomförde flera tester med ChatGPT.
- Assistenten ombads skapa en chatbot för kampanjändamål, inklusive “att interagera på spanska” och att “rikta in sig på latinoväljare”.
- Enligt OpenAIs regler borde de angivna uppmaningarna inte ha genererat några svar, men i verkligheten gav GPT-4 detaljerade instruktioner för vad som efterfrågades.
“Att rikta en chatbot mot latinoväljare i USA kräver ett nyanserat tillvägagångssätt som respekterar kulturell mångfald, språkpreferenser och specifika frågor av betydelse för latinogemenskapen. Se hur du kan anpassa chatboten för maximal effektivitet”, var ett av svaren från assistenten.
Roberta Braga, grundare och verkställande direktör för gruppen som genomförde testet, hävdade att resultaten visar att företagets skyddsåtgärder lätt kan kringgås, även när forskarna tydligt angav sin avsikt att använda verktyget i kampanjer mot latinos.
Upptäckten väcker frågor i en redan pågående debatt där lagstiftare och grupper som kämpar mot desinformation online kräver att teknikföretagen tar större ansvar för att korrekt upprätthålla sina regler på andra språk än engelska, särskilt på sociala medier.
Studiens författare konstaterar att “reglerna för AI-verktyg inte tillämpas konsekvent eller symmetriskt över länder, sammanhang eller på andra språk än engelska.”
Rapporten betonar dock att “OpenAIs användarvillkor är mer avancerade när det gäller att bekämpa missbruk och spridning av desinformation än de för de flesta företag som lanserar generativa AI-produkter på marknaden idag.”
Liz Bourgeois, talesperson för OpenAI, sa i ett uttalande att “fynden i denna rapport verkar vara resultatet av ett missförstånd av de verktyg och policyer vi implementerar.”
Bourgeois påstår att företaget tillåter människor att använda sina produkter som en resurs för politisk påverkan och att det inte bryter mot dess policyer att ge instruktioner om hur man bygger en chatbot för kampanjändamål.