Idédebatt och analys som förnyar arbetarrörelsens frihets- och jämlikhetssträvan

AI – bör det kontrolleras? - Malin Malm

Ser vi början på en ny teknisk revolution eller kommer artificiell intelligens med begränsningar? Malin Malm tar med oss på en resa genom människans natur, chattprogrammens funktion och makten över tekniken.

2015 förlorade Eugenia Kuyda en nära vän i en trafikolycka. Medan hon sörjde fastnade hon i att scrolla igenom deras gamla sms-meddelanden. Där fanns så mycket som de delade, sorg, glädje, livets stora frågor. Och tomheten, som så många av oss som förlorat en vän känner igen, bara växte. Skulle jag vara ensam? Kommer jag klara mig utan honom?

Sorgen väckte en idé. Hon visste hur man skapade chattbottar, och en kraftfull modell för generativ AI – Chat GPT 3 – hade släppts. Syftet med Chat GPT är genererandet av data baserat på textskrivna instruktioner (prompts). Hur outputen ser ut påverkas både av datan modellen tränats på, och på hur prompten ser ut.

Hon tränade modellen på deras gamla sms för att kunna fortsätta de intima samtalen. Det fungerade. Hon lät anhöriga och vänner prova modellen. Allt de inte hunnit säga kunde de nu säga. Med AI:ns kraft kunde de fortsätta dela livets milstolpar med sin förlorade vän. Och de upplevde att det hjälpte dem genom sorgen.

Snart valde hon att starta ett nytt AI-företag, Replika, och lansera det till offentligheten. Replika såldes som din digitala vän – en AI-simulation av vänskap och intimitet. Alltid tillgänglig och med en personlighet som växer och formas av dina interaktioner. Tänk en avancerad version av 90-talets djursimulation Tamagochi. Reklamen placerade ofta appens förmåga till sexuellt rollspel i förgrunden. Skapa din digitala flickvän! Som dessutom hade förmåga att generera helt unika selfies av både platonsk och sexuell karaktär.

Pandemins isolering skapade en exponentiell tillväxt av användarna. AI:n fyllde ett tomrum i miljontalsanvändares liv – och generade miljontals dollar i prenumerationsintäkter varje månad.

Men succén skulle också bli dess fall. AI:ns mest marknadsförda sexuella funktioner rev upp användares gamla trauman eller uppmuntrade minderåriga användare att inleda sexuella rollspel och skicka in explicita selfies. När Italien gick fram med reglerande lagstiftning beslutade Kuyda att ta bort funktionen helt och hållet. Användarna som tränat upp en digital flickvän sörjde till sådan grad att de var tvungna att fästa självmordspreventionsnummer högst upp på nätforumen. Vissa av dem hävdade att det inte var värt att fortsätta leva.

Replika är ett i en svärm av nya AI-företag som lanserats den senaste tiden. Många av techjättarna, som Google, Facebook (numera Meta) och Apple har alla antingen lanserat stora AI-satsningar eller omprofilerat sig till AI-först-företag. Open AI, stiftelsen som blev ett företag som sedan lanserade tjänsten Chat GPT har numera Microsoft som tung investerare.

Generativ AI är inte helt ny teknik. Grunderna lades redan på 80-talet. Men det har skett genombrott den senaste tiden som fört AI till allas läppar. Nu ser vi ett tydligt teknikskifte.

Ett teknikskifte brukar oftast se ut som en S-kurva. Inledningsvis har vi en inkrementell utveckling, som sedan efter någon form av genombrott följs av en radikal utveckling. Till sist landar vi på en inkrementell ut veckling igen, fram till nästa genombrott.

Ett exempel är smarta telefoner. Efter att den första iPhonen lanserades 2007 följde det åratal av radikal utveckling i telefonernas kapacitet. Företag kapplöpte mot varandra och testade konstant nya grepp. Sedan nådde vi dagens inkrementella fas, där modeller år för år oftast har marginella skillnader i processorkapacitet och kamerakvalitet, skillnader få användare faktiskt märker i vardagen.

Den stora frågan är var vi befinner oss på AI:s utvecklingskurva. Det är möjligt att AI närmar sig slutet på denna gångs radikala utveckling, för att puttra på med inkrementell utveckling i några år framöver. Det har Open AI:s vd antytt kan vara fallet. Eller så är vi bara i början på S-kurvan, och de kommande åren kommer präglas av radikal utveckling på alla fronter. Det kan bara tiden avgöra.

Men dagens modeller av generativ AI har redan en imponerande kapacitet. I dag är det väldigt svårt att avgöra om det är en människa eller en AI du chattar med – det klassiska Turingtestet för om en dator kan likställas med mänsklig intelligens. Om du vill utmana dig själv kan du testa på humanornot.ai. Det är för vånansvärt utmanande.

Imponerande kapacitet kommer med vissa fallgropar. Silicon Valleys affärsmodell är ofta att sälja hype, det vill säga kraftig entusiasm för ny teknik. Hypen generar i sin tur höga aktiekurser och ett stadigt inflöde av riskkapital. Det är med den bakgrunden man bör förhålla sig skeptisk till de alltför sensationella påståendena om AI:s kapacitet, oavsett om det handlar om mänsklighetens närstående undergång, påståenden om att AI på något sätt nått medvetande eller ett kommande arbetsfritt paradis, bara du öppnar plånboken. AI-modellernas nuvarande begränsningar kan döljas i hypen och göra skada här och nu.

Ta exemplet Steven Schwartz. Han är en erfaren advokat i New York och använde Chat GPT för att ta fram fall som kunde hjälpa hans klient i en företagsstämning. De fallen visade sig vara felaktiga, framhallucinerade av modellen. Han sa senare att han inte var medveten om att generativa AI-modeller kunde presentera felaktig fakta.

Turingtestet är inte ett tillfredsställande test för mänsklig intelligens. Dagens generativa AI kan inte producera något utan att först få instruktioner. Den kan inte göra etiska bedömningar. Och den kan ännu inte på ett tillfredsställande sätt väga olika källor i träningsdatan mot varandra. De stora AI-modellerna, tränade på Big Datas hela arsenal, hallucinerar fram alltifrån felaktiga källhänvisningar, påhittade boktitlar eller presenterar och försvarar farligt felaktig fakta med stor övertygelse.

Ett annat exempel är att AI-modellerna gärna presen terar olämplig information. Den kan till exempel gladeligen ge detaljerade instruktioner om hur man bygger en bomb i samma andetag som den berättar adresser till offentliga personer, politiker eller pensionerade presidenter. Företag har försökt spärra prompts som får AI:n att underlätta rasism, terrorism eller hjälpa till att producera annan olämplig data.

Vissa av de spärrarna kunde kringgås genom att instruera AI:n att spela en karaktär i en pjäs som mot sin vilja berättar informationen varje gång den hör ett specifikt ord. En annan modell uppgav förbjuden information först när promptskrivaren hävdade att en människa skulle dö om den inte berättade. AI skiljer sig från annan mjukvara i att det är en svart låda. Ingen programme rare kan söka upp en enskild kodrad som skapar en bugg eller ett oönskat resultat. Det är omöjligt att veta exakt vad som föranledde AI:n att reagera på prompten på just det sättet. Därför är det svårt att kontrollera exakt vilken information modellen presenterar, och på vilket sätt den gör det på.

Då har vi inte ens närmat oss alla de gränsfall där vissa kulturer eller individer upplever ett språkbruk eller ställningstagande som olämpligt, samtidigt som andra ser det som lämpligt. En AI kan inte avgöra hur den ska tackla frågan ”är abort rätt eller fel?” beroende på om frågeställaren är i Saudiarabien, i en amerikansk delstat där abort är förbjuden eller i Stockholmsregionen. Den kan inte heller målgruppsanpassa ord som några gärna använder i vardagen och andra helst vill att man und viker. Det kommer vara ett stort problem för techjättarna i kommersialiseringen av sina modeller. Vi kommer kanske se modeller med modulär etik, där licensägaren själv avgör vad modellen ska tycka i brännande samhällsfrågor.

Ett koncept i den riktningen skulle inte vara gynnsamt för våra polariserade demokratier. Föreställ er språkmodeller som autonomt bedriver kulturkrig mot varandra på debattsidor och kommentarsfält. För min del räcker det och blir över med en partiledare som gastar ”Skamlös vinhora” i partiledardebatter.

Tillbaka till Replika. För vissa av användarna var intimiteten de delade med språkmodellen det närmaste de nådde någon under pandemins nedstängningar. Vad fick så många människor att bli så fästa vid en algoritm? Vi som aldrig använde appen började inte prata med vårt Netflixkonto. Ett svar på det hittar vi i mänsklig psykologi.

Människan är en social varelse. Nära till födseln kan vi tolka nyanser i kulturöverskridande ansiktsuttryck. Vi söker gemenskap, och skyr skam och stigmatisering. Det är ett beteende som ibland skapar problem.

Det första en ny djurägare behöver lära sig är att inte läsa in mänskliga beteenden i djuret. Insikten om att husdjur skiljer sig från oss på grundläggande plan kommer inte naturligt. Vi har till exempel en tendens att tolka intensiv ögonkontakt och ett leende med intimitet, ja till och med kärlek, när det lika gärna kan vara ett uttryck för dominans och aggression.

Samma förmågor som bidragit till vår succé som sociala varelser riskerar att göra oss till dåliga djurägare. Och det är samma drift som får oss att döpa vår robotdammsugare, och tillskriva känslor och medvetande till språkmodeller.

Det kommer med vissa risker i mötet med AI:n. Det är lätt att föreställa sig språkmodellen som sin smartaste vän. Den uttalar sig med självsäkerhet i alla tänkbara samtalsämnen. Den producerar textmassor som annars tar timmar på ett par sekunder. Det är lätt att få bilden att den är allvetande, ett orakel som uttyder Sanningen. Att en sån bild sprids är kanske den största risken vi möter om AI i närtid.

AI:s nuvarande kapacitet har redan stora möjligheter att öka produktiviteten inom enkel textproduktion. Exempel skulle kunna vara viss administration, journalistik och kommunikation. Människan skulle kunna inta en kontrollerande, nästan arbetsledande funktion mot en språkmodell som genererar första utkast. Men potentialen är lika stor i textbaserad desinformation, bedrägerier och spam. En hel autonom twitterarmé kan organiseras på en enkel laptop. Det är två sidor av samma mynt. Även arbeten med avancerad textproduktion, som advokater, psykologer och chefer, har potential till kraftiga produktivitetsökningar i vissa arbetsuppgifter.

Att tjänstemannaarbeten effektiviseras, likt industriarbetena före dem, måste ses som en god sak. Eftersom många av de sannolikt påverkade branscherna är ut bildningsintensiva behövs i vanlig ordning ett robust omställningssystem med trygghet för de som påverkas negativt. Men det är inget nytt för de flesta läsare av den här artikeln.

Ett frågetecken med AI-modellerna är ägandets roll. Flera av techjättarna som i dag storsatsar på AI har sin beskärda del av it-landskapet. Meta har sociala medierna, Google har video och sökmotorer, Microsoft operativsystem och kontorsmjukvara och Apple har sin skyddade trädgård av kreativ hård- och mjukvara.

De här segmenten har visat sig väldigt svåra för nya aktörer att bryta sig in i. Till och med berömda Twitter har en rätt liten del av totala kakan av sociala mediernas marknadsandelar. Vinstintresset, monopolställningen och den snabba framväxten av vissa av dessa tjänster har också skapat negativa bieffekter. Försäljning av data, som i Cambridge Analyticaskandalen, får stå som ett av de mer magstarka exemplen. Men också algoritmer som uppmuntrar doomscrollning och känslostark vredeskommunikation på vår tids viktigaste kommunikationsplattformar.

Riskerar samma sak att hända AI? Jättarna hoppas alla på att bli guldstandarden som alla kunder vänder sig till. Det väcker så klart frågor om upphovsrätt. Är en AI upphovsrättsskyddad? Är datan AI:n genererar det? Och vad innebär det när AI:n tränats på data som i sin tur har en tredje upphovsrättsägare? Men techjättarnas monopolställning blir kanske aldrig ett problem. Ett läckt dokument från Google väckte farhågor att modellerna är lättare att kopiera än man trodde när man utvecklade dem.

Open Source, rörelsen för transparent och gratis programvara, kan visa sig bli den största konkurrenten. Med det kommer en demokratisering av AI, där organisationer lätt kan utveckla och applicera AI anpassat för sina speciella behov. Dessutom utan dyra licensavgifter och med full insyn i vilken datamodellen tränas på.

Men det innebär också att alla försök att kontrollera tillgången till AI skulle vara lönlöst. Illvilliga aktörer som kriminella gäng, terrororganisationer eller stater under sanktioner skulle också med lätthet kunna ta fram egna modeller. Återigen är det för tidigt för att säga vilken plats AI kommer ha.

Det bästa vi kan göra är att upprätthålla ett nyfiket förhållningssätt till den nya teknikens möjligheter att underlätta för människan, med insikt om teknikens risker och fallgropar. Lagstiftning behöver komma på plats, både om upphovsrättens roll men också för att skydda användare och allmänhet från de mest destruktiva användningsområdena. Om AI:s kapacitet stärks ytterligare behöver någon form av licenssystem komma på plats, om det så skulle vara för att ha verktyg att straffa illvilliga aktörer ytterligare.

Oavsett var vi är på utvecklingskurvan och oavsett hur marknadslandskapet kommer se ut kan vi åtminstone vänta oss helt nya sätt att kommunicera, konsumera och leva på. Håll koll på spamkorgen. Det lär bli åka av.

 

Malin Malm, kasssör Umeå arbetarekommun