Traditionella datorprogram utför människans instruktioner, varken mer eller mindre. Om x så y. Det är svårare att överblicka hur självlärande system fungerar, även för konstruktörerna. Ingen vet exakt hur AlphaGo planerade sina drag mot Go-mästaren Sedol Lee. Vilket väcker frågor om ansvarsutkrävande för exempelvis förarlösa bilars och autonoma vapensystems (på dagstidningsspråk mördarrobotars) handlingar. Eller robotjournalisters yttranden och fördomsfulla algoritmers rekommendationer till domstolar och polismyndigheter.
Självlärande system lär sig av erfarenheter och av feedback från människor. Google framhåller vikten av att hindra robotar från att utnyttja kryphål för att trigga belöningssystem. Som städrobotar som stökar till för att ha något att städa upp. Om morötter fungerar, går det även att tänka sig piskor?
Det pågår nu på flera håll diskussioner om möjligheten att betrakta robotar som rättssubjekt med rättigheter och skyldigheter. Juristen John Frank Weaver, författare till Robots are people too, har exempelvis argumenterat för att maskiner bör kunna tillerkännas yttrandefrihet. Och nu har Europaparlamentets utskott för rättsliga frågor tagit fram ett förslag enligt vilket robotar skulle kunna betraktas som elektroniska personer. Rapporten, och möjligheten att "straffa" robotar diskuteras närmare i avsnittet av FW:Thinking ovan.
Läs också:
Sci-fi för jurister
Google tar fram regler för robotar
Ska självkörande bilar kunna välja att offra människoliv?
Fredrik Svärd
[email protected]