En professor som ansågs galen gjorde en korrekt förutsägelse om sin AI

Sex månader tillbaka skrev Gary Marcus, professor emeritus vid New York University (NYU) i USA, som anses vara en av de ledande rösterna inom AI idag, något anmärkningsvärt:

Någonting otroligt sker inom området för artificiell intelligens för tillfället – och det är inte enbart av godo.

En professor som ansågs galen gjorde en korrekt förutsägelse om sin AI

Enligt professorn leder utvecklingen av ChatGPT mänskligheten till ett “Jurassic Park-ögonblick” med maskiner: risken att situationen eskalerar och blir ohanterbar.

I en intervju med BBC Sverige uttryckte Marcus att när han publicerade sin artikel trodde många att han var överdrivet oroad eller till och med alarmistisk.

Det verkar dock som han åtminstone delvis kan ha haft rätt: I mars tog en man i Belgien sitt liv efter ständig interaktion med chatboten Eliza från Chai.

Mannens hustru är övertygad om att den kontinuerliga kontakten med AI bidrog till hans beslut att avsluta sitt liv. Den belgiska regeringen har uttalat sig och framhållit att fallet är “ett prejudikat som bör tas på största allvar” samt att “riskerna med användning av [artificiell intelligens] utgör en verklig fara som måste beaktas”.

Denna händelse hade Marcus förutspått för WIRED fyra månader innan den inträffade: “Kan det tänkas att en chatbot orsakar så pass stor skada på någon att personen känner sig tvingad att ta sitt liv? (…) År 2023 kan vi bevittna det första fallet där en chatbot leder till någons död.”

Jag är övertygad om att dessa system kan vara ytterst destruktiva. En orsak till deras potentiellt förödande effekter är att de är opålitliga. Dessa program kan hitta på saker och presentera dem som fakta för användarna. Dessutom kan de utnyttjas av människor i detta syfte.

“De artificiella intelligenssystem vi har idag är inte under noggrann kontroll. Även om vi inte befinner oss i en kris än, så tilldelas de allt större befogenheter. Och vi har ingen aning om vad dessa system kan åstadkomma under specifika omständigheter”, tillade han.

Marcus och hans dystra prognoser

Förra året presenterade professorn “sju dystra prognoser” angående generativ AI, såsom ChatGPT.

Bland dessa förutspådde han att den senaste versionen av verktyget, med GPT-4, skulle likna en “tjur i en porslinsaffär, hänsynslös och svårhanterlig. Den skulle begå ett betydande antal dumma, huvudskakande fel på sätt som är svåra att förutse.”

I samband med fallet – förtal uppfunnet av en AI – utgav OpenAI, ägaren av ChatGPT, ett uttalande där man helt enkelt konstaterade att verktyget “inte alltid genererar korrekta svar”.

Det finns ingen formell försäkran om att dessa program alltid kommer att fungera korrekt, ens vid matematiska beräkningar. Ibland är de riktiga, ibland inte. Problemen jag ser är bristande kontroll och tillförlitlighet. Din vanliga miniräknare ger alltid ett korrekt aritmetiskt svar. Men det gör inte stora språkmodeller.

När han diskuterar stora språkmodeller syftar Marcus på LLMs (Large Language Models), som innehåller enorma datamängder och genererar, med avancerade algoritmer, approximativa svar baserade på tidigare människors uttalanden.

“LLMs är inte särskilt intelligenta, men de kan vara farliga”, uttalade professorn, som inkluderade verktygets ögonblick av “hallucinationer” i sin lista över “dystra förutsägelser.”

Professor Marcus tog också upp nyliga händelser som involverar deepfakes – speciellt fotot av påve Franciskus i en trendig jacka. “Om vi inte agerar står vi inför risken att hamna i en värld bortom sanning”, sade han.

Detta utgör ett stort problem för demokratin. Vi behöver sanktioner mot de som sprider massdesinformation, krav på vattenmärken för att identifiera informationens källa och utveckling av ny teknik för att upptäcka falsk information. Liksom vi har antivirusprogram, behöver vi programvara mot desinformation.

Utanför universitetsvärlden

Gary Marcus är 53 år gammal och har erfarenhet även från andra områden. Han har tidigare sålt ett företag till Uber och blev ledare för företagets AI-laboratorium. Han stannade dock bara på positionen i fyra månader och lämnade den med anklagelser om en “toxisk” arbetsmiljö.

För Marcus är reglering av AI nödvändig och han jämför med flygbranschen som exempel. “Flygbranschen på 1950-talet var katastrofal. Planen kraschade ständigt. Reglering var bra för sektorn; det hjälpte flygindustrin att till slut utveckla en bättre produkt.”

Att överlåta ansvaret till företagen leder inte alltid oss på rätt väg. Visst, man hoppas att företag ska vara samarbetspartners i utvecklingen av nödvändiga lösningar. Men det är ju därför vi har regeringar, eller hur?

Skepsis och “AI:s gudfader”

Marcus skepticism, försiktighet och tvivel möttes med hån från hans kollegor – särskilt på Twitter – men numera ändrar flera av dem ton.

“AI:s gudfader”, Geoffrey Hinton, uttalade sig efter att ha lämnat Google om att problemen med AI “kan vara mer akuta än klimatförändringarna”.

Hinton och jag har olika åsikter i vissa aspekter av artificiell intelligens. Jag korresponderade nyligen med honom, delade min synpunkt och han höll med, vilket inte sker ofta. Men den grundläggande frågan vi båda håller med om är kontrollen.

Jag är inte nödvändigtvis övertygad om att [AI] utgör ett större hot än klimatförändringarna, men det är svårt att avgöra. Det finns gott om etablerad data för att bedöma riskerna med klimatförändringar. När det gäller artificiell intelligens vet vi dock inte ens hur vi ska beräkna dessa risker.

För mig är risken att dessa verktyg kommer att användas för att underminera demokratier praktiskt taget 100%. När det gäller möjligheten att robotar tar över planeten, har vi ingen aning. Det är rimligt för vissa att engagera sig i detta scenario. Vi utvecklar mycket kraftfulla verktyg. Vi måste beakta dessa hot.