Kommer AI verkligen att utgöra ett hot mot mänskligheten?

Sedan AI:s framväxt, främst drivet av populariteten för ChatGPT, har frågor uppstått om huruvida tekniken skulle kunna ersätta människor eller utgöra en risk för mänskligheten. Medan vissa hävdar att artificiell intelligens kan utvecklas till att utplåna människor, är andra mer oroade över dess inverkan på vardagen. Dock är experter och företagsledare långt från eniga om AI:s konsekvenser.

Kommer AI verkligen att utgöra ett hot mot mänskligheten?

AI och risker för mänskligheten

  • Några framstående företagsledare har uttryckt sina åsikter om AI:s risker. Sam Altman, VD för OpenAI, företaget bakom ChatGPT, sade under sin världsturné att tekniken kan orsaka allvarlig skada på mänskligheten – eller till och med värre.
  • Detta skulle innefatta förmågan att tänka som människor, överträffa våra befintliga kapaciteter och potentiellt kontrollera oss.
  • Dario Amodei, VD för utvecklaren Anthropic, varnade för liknande faror när han vittnade inför den amerikanska senaten i juli.
  • Elon Musk, miljardär och ägare till Tesla, SpaceX och X (tidigare Twitter), skrev under ett brev där branschexperter och chefer uppmanade till en paus i teknikutvecklingen.
  • I maj uttryckte Musk vid en Wall Street Journal-händelse att AI “har en icke-försumbar sannolikhet att utplåna mänskligheten”. Men mindre än två månader senare, i juli, grundade han sitt eget AI-företag, xAI.

AI och vardagliga risker

En grupp forskare som motsätter sig tanken att AI skulle utgöra en risk för mänskligheten kritiserar denna uppfattning och menar att dessa ledare skapar “distraktioner” med hypoteser som är drivna av science fiction. De menar att AI-företag och regulatoriska myndigheter borde fokusera mindre på existentiella risker och mer på vad tekniken redan kan åstadkomma, vilket potentiellt kan påverka människors dagliga liv. Detta inkluderar förmågan att producera desinformation, sprida fördomar, exploatera arbetstagare och fördjupa ojämlikheter.

Enligt Daniel Schoenberger, tidigare advokat på Google som arbetade med AI-principer 2018 och nu är vid Web3 Foundation, handlar oron om teknikens dominans, “av stor teknik som blir stor AI”. Därför efterlyser denna grupp reglering av vad AI kan och inte kan göra. Uttalandet gavs i en intervju med The Wall Street Journal.

Polarisering av frågan

Andra experter menar att polariseringen mellan dessa två problem skapar distraktioner. Enligt Max Tegmark, ordförande för Future of Life Institute, en icke-statlig organisation som främjar debatter om risker för planeten och mänskligheten, har företag ett intresse av att främja denna uppdelning för att undvika reglering.

Detta beror på att medan människor är oroliga för risken att AI utvecklas till att dominera människor, är de inte lika oroliga över vad det redan orsakar i deras dagliga liv, och vice versa.

Betygsätt Denna Sida