Behövdes det ytterligare ett upprop om artificiell intelligens (AI)? Jag tycker det och därför har jag skrivit under Center for AI Safety:s upprop om hanteringen av AI-risker som utgör ett hot i paritet med pandemier eller kärnvapen.
Under de senaste veckorna har tilltagande uppmärksamhet ägnats åt AI. Den snabba spridningen av tjänster som ChatGPT kombinerat med ett upprop för att pausa den tekniska utvecklingen har blivit explosivt bränsle för både de som omfamnar utvecklingen och de som räds den. När dammet nu börjar lägga sig är det många som konstaterar att det kanske viktigaste var att vi fick en bred debatt om AI, men den debatt vi fick har varit kontraproduktiv på åtminstone tre avgörande vis:
För det första har olika typer av AI-teknik och tillhörande risker blandats ihop i debatten. Gemensamt för dagens AI-system är att de är begränsade till smala användningsområden som de har byggts och tränats för. Den här typen av AI-system förknippas bland annat med risken att förmedla och förstärka fördomar eller skevheter som finns i den data den har tränats på och det är något som behöver tas på allvar. Det många AI-forskare och utvecklare nu försöker bygga är generellt tillämpbara AI-system som kan anpassas och användas till uppgifter som de inte tränats för. Det betyder att det råder större osäkerhet om hur maskinen kommer att agera inom nya tillämpningsområden. Den här typen av tillräckligt generell artificiell intelligens är potentiellt förknippad med risker i paritet med pandemier eller kärnvapen och behöver hanteras på det sättet. Det betyder däremot inte att all AI utgör ett potentiellt existentiellt hot, eller att alla risker som förknippas med AI kan hanteras på det sättet. Då är risken stor att vi överskattar och överreglerar dagens teknik, vilket kan få betydande negativa ekonomiska konsekvenser. Vi måste kunna hantera flera olika typer av AI-risk samtidigt, inte välja en framför den andra.
För det andra har teknisk expertis fått ett oproportionerligt tolkningsföreträde i debatten om hur AI kan komma att påverka ekonomi och samhälle samt vilka risker det medför. Tekniska AI-experter utgår från en gedigen kunskap om utbudssidan i den teknikdrivna strukturomvandlingen, de kan berätta vad maskinerna potentiellt kan åstadkomma. Däremot är de inte experter på hur ny teknik faktiskt implementeras och används i ekonomi och samhälle. I deras analys saknas därför dessa element och det låter ofta som att AI skulle spridas och tillämpas på ett helt oreglerat vis, vilket förstås inte är fallet. Därför behövs det samhällsvetenskapliga forskare, politiska beslutsfattare och andra berörda aktörer som engagerar sig i diskussionen om AI och AI-risk för att ta hänsyn till det som utgör efterfrågesidan i den teknikdrivna strukturomvandling vi just nu befinner oss i.
För det tredje har debatten fått en olycklig dikotomi mellan de som vill pausa eller införa ett moratorium för delar av den tekniska utvecklingen och de som inte vill det. Utöver att en sådan ”paus” ter sig som lite lätt naiv och i praktiken omöjlig att åstadkomma vore den också kontraproduktiv. Den tekniska utvecklingen behöver gå framåt för att AI-tekniken ska mogna och bli enklare att både använda och, vid behov, reglera. Men att vara emot en paus i AI-utvecklingen får inte bli synonymt med att tycka att politiska beslutsfattare inte ska hantera risker med såväl dagens AI som morgondagens.
CAIS-uppropet bidrar med välbehövlig nyans till en AI-debatt som i allt för hög grad har präglats av falska dikotomier, starka känslor och breda penseldrag.