AI-uppropet (del 1): Skilj på dagens och framtidens AI

Intresset för AI, och i synnerhet stora språkmodeller (LLM), har ökat markant med tillämpningar som Chat-GPT och GPT4 som, baserat på allt större mängder träningsdata, gör statistiska förutsägelser om hur en ny text förväntas se ut för att svara på en given fråga. AI-modellen kan inte något om de ämnen som den producerar text om, men på grund av kvaliteten på dess svar är det lätt att få intrycket av att den har bemästrat allt från högskoleprovet till medicinsk vetenskap, relationsråd och raketforskning (En villfarelse som behandlas i avsnitt 103 av podden Bergh & Wernberg). Det har i sin tur tillfört ny luft till en debatt som präglas av både förtjusning och förskräckelse inför den nya tekniken.

Den 22 mars publicerade Future of Life Institute ett öppet brev där de kräver att all utveckling av stora AI-modeller som är större och/eller starkare än GPT4 ska pausas i sex månader – alltså ett moratorium på teknik utveckling av den här typen av AI-verktyg. Tanken är att världen ska komma ikapp. Brevet fick snabbt mycket uppmärksamhet och har kommit att influera samhällsdebatten både i Sverige och internationellt. men vid en närmare titt finns det flera allvarliga problem med uppropets krav på en ”AI-paus”.

Uppropet blandar ihop den AI som finns idag med AI-teknik som inte finns än men skulle kunna tänkas utvecklas i framtiden. Dagens AI är ”smal” i bemärkelsen att den tränas för att utföra en väl avgränsad uppgift och då kan utföra den väldigt väl. Smal AI kan ofta utföra enskilda uppgifter bättre än människor på grund av att maskinen kan utföra många fler beräkningar per sekund och kan identifiera väsentligt större mönster i data än vad människor kan. Med detta sagt gör inte det maskinen mer intelligent än människan. Ai och människor utför samma uppgift men olika kognitivt arbete, vilket innebär att de har komparativa fördelar och kompletterar varandra (För den intresserade finns rapporten Människor, maskiner och framtidens arbete).

Målet för dagens AI-utveckling är att uppnå artificiell generell intelligens (AGI), som kan tillämpas på nya typer av uppgifter som den inte har tränats specifikt för. Här skiljer sig experternas bedömningar åt, men många tror och hoppas att AGI kan uppnås genom en stegvis utveckling av större och mer avancerade AI-modeller, till exempel de stora språkmodeller som ligger till grund för Chat-GPT och GPT4. Om det visar sig vara så kommer vi sannolikt att se en växande debatt gråzoner och hur generell en AI-modell behöver vara för att betraktas som AGI. Man kan reda skönja en sådan debatt om GPT4 idag med de som tycker sig se ”gnistor” av generell intelligens i maskinen och de som synar sådana påståenden i sömmarna.

Bortom debatten om AI finns också de, bland annat Future of Life Institute, som forskar om riskerna med superintelligens, vilket kan sägas vara en AGI som uppnår någon form av självmedvetande som grund för sin agens. Även om man antar att smal AI stegvis kan utvecklas till AGI är detta inget belägg för att smal AI kan utvecklas stegvis till superintelligens. Att det finns en betydande skillnad mellan AGI och självmedveten superintelligens finns betydligt mer konsensus om bland AI-forskare än vad gäller gränsen mellan smal AI och AGI.

Trots detta blandar uppropet för ett moratorium på AI-utveckling friskt ihop dagens AI med en framtida superintelligens och målar upp AI som ett hot mot hela vår civilisation. Den hotbild som tecknas är illa underbyggd, något som jag utvecklat på SvD:s ledarsida, i SvD:s Ledarpodden samt hos Expressen-TV.

Detta leder i sin tur till ytterligare problem när det gäller hanteringen av AI-risk. Om man utformar regelverk och lagstiftning för att hantera riskerna med superintelligens innebär det en betydande extra regelbörda på företag som implementerar smala AI-lösningar i sin verksamhet. Samtidigt är ett sådant regelverk ingen garanti för att hantera de risker – eller övriga förutsättningar – som förknippas med just smal AI. Många av de potentiella skadorna med dagens AI sammanfaller med negativ affärsnytta, men det finns också behov av regelverk bland annat för att tydliggöra ansvar i vissa situationer. Man måste med andra ord hålla isär riskhanteringen av dagens AI och en eventuell framtida superintelligens. De handlar om olika teknik med väldigt olika riskprofil.

Risker med dagens AI handlar till viss del exempelvis om att människor överskattar tekniken eller inte förstår dess begränsningar, att AI tränas på data som innehåller betydande brister som sedan förmedlas vidare av AI-modellen eller att AI tillämpas på ett felaktigt sätt. Mycket av detta är risker som kan hanteras helt eller delvis genom ökad kunskap om tekniken. Men såväl dagens AI som en framtida AGI medför också risker som handlar om att tekniken blir genuint svår- eller oförutsägbar. En av de stora fördelarna med AI-modeller är att de kan identifiera och agera på statistiska mönster som vi inte visste fanns eller hade kunnat hitta i den data de tränats på, men det betyder också att vi inte på förhand kan veta säkert vilka mönster mönster som kommer att ligga till grund för modellens utfall. Lägg till detta att AI i allt högre grad kommer att vävas in i mjukvarubaserade och datadrivna värdekedjor som kombinerar stora AI-modeller som GPT4 med mer nischade AI-verktyg och dataflöden mellan kedjans olika delar. Sammantaget handlar detta om betydande risker och potentiellt allvarliga konsekvenser som behöver hanteras. Detta utgör en betydande utmaning i sin egen rätt, men den riskerar att hamna i skuggan av hotet från en självmedveten superintelligens när man blandar ihop begreppen.

Nu riktas mycket uppmärksamhet mot AI-uppropet, men problemet med begreppsförvirring finns också i arbetet med att reglera dagens AI. Det handlar dels om hur lagstiftare förstår AI, men också hur man praktiskt definierar och avgränsar de AI-system som regleras. Till exempel använder EU och OECD olika definitioner av AI. Det jar jag skrivit mer om i rapporten ”Vad menas med AI, vad regleras och varför är det viktigt?” samt i denna Twittertråd.

2 kommentarer

  1. Pingback:AI-uppropet (del 2): Existentiell AI-risk, Limits to growth och marknadsekonomin – SoeTech

  2. Pingback:Ett AI-upprop värt att ställa sig bakom! – SoeTech

Lämna en kommentar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *