
En av de saker jag först lade märke till när jag flyttade till Sverige 2020 var hur många elbilar som fanns på vägarna.
En dag satt jag i min Volvo och väntade på att få köra ut vid en korsning när en lång rad med Teslor passerade framför mig. Eftersom jag arbetar med artificiell intelligens (AI) började jag fundera på om alla dessa bilar kanske körde sig själva och skjutsade sina passagerare dit de skulle, medan jag själv satt fast och väntade på att få köra ut på vägen.
Då insåg jag att dessa ”AI-bilar” inte har någon inbyggd känsla för vänlighet – de följer bara reglerna. Det finns inget som tvingar dem att släppa fram mig.
Det fick mig att undra: Tänk om Teslor bara är vänliga mot andra Teslor? De kanske hjälper varandra men ignorerar alla andra. Ingen reglerar ett sådant beteende, och jag tror inte att någon ens har undersökt det. Men samtidigt ger det oss en chans att fundera över hur vi kan skapa riktlinjer för AI och autonoma system. Vad skulle det innebära för oss?
När jag tänker på framtiden med AI påminns jag om hur science fiction länge har utforskat relationen mellan robotar och människor. Jag tänker till exempel på regler som att robotar aldrig får skada människor eller låta människor komma till skada. Eller att de måste lyda mänskliga order, så länge ordern inte skadar någon, och att de måste skydda sig själva.
Det skrev författaren Isaac Asimov om i sina böcker. Nu när AI blir verklighet frågar jag mig om sådana regler verkligen fungerar, eller om vi behöver ett helt annat tillvägagångssätt.
Som forskare behöver jag mer än bara fantasi – jag måste testa mina idéer. Jag måste testa dessa idéer för att förstå hur vi gör AI säker, hjälpsam och respektfull mot oss alla. Och ännu viktigare, jag vill undersöka om AI kan göra mer än bara undvika skada – kan den faktiskt förbättra våra liv?
Eftersom vi inte lever i en fiktiv värld använder jag datormodeller för att utforska dessa frågor. En populär metod är det som kallas public good game, vilket ungefär kan översättas till ”spelet om det gemensamma bästa”.
Det fungerar ungefär så här: tänk dig en grupp människor där var och en har ett guldmynt. Varje omgång kan de välja att lägga myntet i en gemensam pott eller behålla det själva. Pengarna i potten multipliceras och fördelas sedan jämnt mellan alla deltagare, oavsett vad de bidragit med.
Spelet speglar situationer från verkligheten, som att betala skatt eller ta hand om gemensamma resurser. Tyvärr antar vi ofta att människor handlar egoistiskt, vilket gör att den bästa strategin är att inte bidra alls. Det här leder till ett problem känt som ”allmänningens tragedi”, där gemensamma resurser överutnyttjas eller ignoreras eftersom alla bara tänker på sig själva. Men genom att justera spelet kan vi undersöka vad som får människor att samarbeta bättre.
I vår studie använde vi denna modell men med en avgörande förändring: Vi delade upp deltagarna i mänskliga spelare och AI-agenter. AI-agenterna var tvungna att följa en global regel – liknande författaren Isaac Asimovs principer – till exempel att alltid samarbeta. De mänskliga spelarna fick agera egoistiskt och försöka maximera sina egna vinster. På så sätt kunde vi skapa en modell för att undersöka hur olika AI-regler påverkar samspelet mellan människor och AI.
Först undersökte vi vad som hände om AI-agenterna alltid samarbetade, likt Asimovs robotar som skulle lyda mänskliga order. Överraskande nog påverkade detta inte människornas beteende särskilt mycket. De mänskliga spelarna insåg snabbt att de kunde fortsätta agera själviskt och ändå dra nytta av AI-agenternas godhet. Resultatet blev alltså att människorna utnyttjade den hjälpsamma AI:n utan att ändra sitt eget beteende.
Därefter lät vi människorna bestämma hur AI skulle bete sig, precis som Asimovs idé om att robotar måste lyda människors order. Detta ledde till ännu mer exploatering: människorna fortsatte att vara själviska samtidigt som de beordrade AI-agenterna att alltid samarbeta. Resultatet var återigen att AI:n gav mer än den fick tillbaka, utan att få människorna att samarbeta.
Dessa resultat fick oss att prova en tredje strategi. Vi gjorde AI-agenternas beteende beroende av hur människorna agerade. AI:n observerade människornas nivå av samarbete och anpassade sitt eget beteende därefter. Var människorna själviska, blev AI det också. Samarbetade människorna, gjorde AI detsamma.
Intressant nog gjorde inte bara det här att AI-agenterna blev mer samarbetsvilliga. Det gjorde också att människorna tog mer hänsyn till andra.
Om vi går tillbaka till min berättelse vid korsningen. Jag väntade förstås inte där för alltid. Till slut stannade en mänsklig förare och släppte fram mig – en liten vänlig handling som inte bara gjorde min dag bättre, utan också inspirerade min forskning om hur människor och AI samarbetar.
Jag undrar ofta om våra forskningsresultat kan tillämpas i verkligheten. Men kanske är den viktigare frågan om det spelar någon roll huruvida vänlighet kommer från en människa eller en maskin. I slutändan är en värld där både människor och AI bidrar till en mer omtänksam miljö en värld värd att sträva efter.
Publicerad i Falu-Kuriren 26 mars 2025.