Försöken med självkörande bilar har skördat ett dödsoffer. Google, som tagit fram ett antal regler för hur robotar bör programmeras, betonar att perfektion inte går att uppnå.
Nyheten om att en Tesla i autopilotläge varit inblandad i en olycka med dödlig utgång sprids nu över världen. Tillverkaren gick snabbt ut och betonade att olyckan är den första i sitt slag:
”This is the first known fatality in just over 130 million miles where Autopilot was activated. Among all vehicles in the US, there is a fatality every 94 million miles. Worldwide, there is a fatality approximately every 60 million miles.”
Nyheten kan leda till irrationell rädsla: autonoma fordon bör inte ställas mot ett scenario med noll olyckor, utan jämföras med fordon framförda av mänskliga förare, menar DN:s teknikskribent Linus Larsson. Statistiken talar redan på betastadiet till robotarnas fördel.
Google, vars bilar varit inblandade i 18 olyckor – 17 av dessa orsakade av människor - på drygt 1,3 miljoner körda miles, delar den synen. Googles mål är att utveckla bilar som är bättre än mänskliga förare, inte att uppnå perfektion, sade en företrädare till Wired tidigare i år.
Som jag skrev i februari har flera tillverkare, som Google, Mercedes och Volvo, åtagit sig att ansvara för olyckor – men också uppmanat politiker att ta fram fungerande regelverk. Lagstiftningsarbetet pågår för fullt såväl utomlands som i Sverige. Enligt ett tillägg till en FN-konvention Sverige är anslutet till kan självkörande bilar vara tillåtna under förutsättning att passagerarna kan ta över kontrollen vid behov. En utredning om försöksverksamhet i trafik väntas vara klar i november nästa år. Det delbetänkande som nyligen lades fram sågades dock av Datainspektionen som menar att det är oklart hur de personuppgifter bilarna samlar in ska hanteras och skyddas.
Diskussionen om självkörande fordon handlar dock inte bara om trafiksäkerhet och integritet. Robotar hanterar transaktioner utan mänsklig inblandning. De skriver texter. Hanterar vapen. Ger juridisk rådgivning. Kör bilar. Bör de tillerkännas status som ”elektroniska personer”, med rättigheter och skyldigheter? Bör deras yttranden skyddas på samma sätt som våra? Och hur reglerar vi deras beteenden så att de inte vänder sig mot oss? Teslas vd Elon Musk har länge hävdat att vi redan nu behöver förbereda mekanismer för att skydda oss mot farorna med artificiell intelligens.
Google Brain har nu tagit fram egna regler för robotar i stil med Isaac Asimovs. Enligt Google bör robotar inte vara för fokuserade på huvuduppgiften, utan också kunna förstå och väga in sidoeffekter av deras handlande. De bör också programmeras för att inte hitta kryphål i de regler de är satta att följa – som exempel nämns en städrobot som orsakar oreda för att kunna trigga belöningssystemet om och om igen. Andra förslag är att inrätta ”lekytor” där robotar kan experimentera och lära sig utan att orsaka skada.
Google använder en städrobot som välter vaser för att illustrera problematiken. I verkligheten står mer än så på spel. Bilarna har haft tillgång till säkra lekytor, men förstår de sidoeffekterna av deras handlande eller kan de manipuleras att plocka poäng genom att köra av vägen?
Läs också:
Yttrandefrihet för robotar?
Ska självkörande bilar kunna välja att offra människoliv?
Science fiction för jurister
Elon Musk: Artificial intelligence is the biggest existential threat (The Guardian)
Fredrik Svärd