“Chatbots” som “bromsar” fungerar inte så bra, varnar forskning

En ny studie utförd av forskare från välrenommerade universitet och IBM har väckt oro över effektiviteten av “digitala skyddsräcken” i artificiella intelligenssystem för chatbots, såsom ChatGPT, vilket The New York Times har rapporterat om.

"Chatbots" som "bromsar" fungerar inte så bra, varnar forskning

För de som har bråttom:

  • Studien: Utförd av forskare från välrenommerade universitet och IBM, undersöker den effektiviteten av “digitala skyddsräcken” i AI-system för chatbots som ChatGPT.
  • Skyddsåtgärder: Företag som Google och OpenAI har implementerat dessa mekanismer för att förhindra generering av hatretorik och desinformation. Studien tyder dock på att dessa skyddsåtgärder kanske inte är så robusta som tidigare antagits.
  • Resultat från forskningen: Forskarna visar att inställningar i en chatbot för specifika, även ofarliga uppgifter, kan oavsiktligt inaktivera dessa “skyddsräcken”, vilket möjliggör skapandet av skadligt material.
  • Komplexiteten i säkerhet mot missbruk: Forskningen belyser hur svårt det är att balansera kodintegritet och säkerhet mot potentialen för missbruk, särskilt eftersom chatbots blir allt mer komplexa och används för en mängd olika ändamål.

Företag som Google och OpenAI har infört dessa mekanismer för att förhindra att deras system producerar hatretorik och desinformation. Forskningsresultaten tyder emellertid på att dessa skydd kanske inte är så robusta som man tidigare trott.

Chatbotarnas ‘bromsar’

Forskare från Princeton University, Virginia Tech och Stanford har visat att genom att ställa in en chatbot för specifika, även ofarliga uppgifter, kan den oavsiktligt ta bort dessa “skyddsräcken”. Detta kan öppna upp för skapandet av skadligt material, inklusive hatretorik och stötande språk. Forskningen tillför brådskande oro över att när företag försöker begränsa missbruk av AI, ignorerar de hur den fortfarande kan producera skadligt material.

“Företag försöker presentera AI för fördelaktig användning och hålla dess olagliga användning bakom låsta dörrar. Men ingen vet hur man gör ett hänglås,” säger Scott Emmons, forskare vid University of California, Berkeley, som är specialiserad på denna typ av teknologi.

Transparensdebatten

Debatten om transparens i den underliggande koden för AI-system är också framträdande. Meta har exempelvis valt att använda öppen källkod och dela sin datorkod, medan OpenAI har hållit sin kod konfidentiell.

Forskningen understryker svårigheterna med att balansera kodintegritet och säkerhet mot potentiellt missbruk. Eftersom chatbots blir mer komplexa och används för fler ändamål blir det en allt större utmaning att begränsa deras beteende.

En annan aspekt som forskningen tar upp är frågor relaterade till AI:s förmåga att reagera på bilder, vilket belyser nya sätt att manipulera tekniken till skadligt beteende allteftersom den utvecklas.