Forskare har utvecklat ett verktyg som kan hjälpa Europadomstolen att prioritera bland inkommande ärenden. Självlärande algoritmer kan göra domstolar mer effektiva - men de kan också diskriminera.
Europadomstolen för de mänskliga rättigheterna haft problem med höga målbalanser i många år. Problemet eskalerade för 4-5 år sedan, då domstolen hade omkring 150 000 ärenden i kö. Antalet inkommande ärenden har minskat något som en följd av en rad åtgärder som vidtagits. Men det är fortfarande så att 800 miljoner människor har möjlighet att klaga direkt till domstolen - avgiftsfritt och på det egna språket.
Forskare vid University College London har nu utvecklat en algoritm som kan förutsäga utgången i enskilda mål och därmed, potentiellt, avlasta domstolen avsevärt. Mjukvaran har ”övat” på 584 fall rörande bl a tortyr, rätten till rättvis rättegång och ska kunna bedöma sannolikheten att en kränkning föreligger med närmare 80 procents säkerhet.
Forskarna tror inte att beslutandet kan överlåtas åt maskiner. Reglerna är för ostrukturerade (vilket väcker frågan om vi borde övergå till att skriva lagtext, domar och annan juridik med maskiner i åtanke) och sakomständigheterna för tungt vägande.
Däremot menar de att algoritmen kan hjälpa domstolen att prioritera och att den bakomliggande tekniken kan hjälpa domare och andra jurister att se mönster i dömandet:
”Overall, we believe that building a text-based predictive system of judicial decisions can offer lawyers and judges a useful assisting tool. The system may be used to rapidly identify cases and extract patterns that correlate with certain outcomes. It can also be used to develop prior indicators for diagnosing potential violations of specific Articles in lodged applications and eventually prioritise the decision process on cases where violation seems very likely. This may improve the significant delay imposed by the Court and encourage more applications by individuals who may have been discouraged by the expected time delays.”
Läs hela artikeln i PeerJ Computer Science här.
Tanken på datorstödda beslut är inte ny (se t ex den här artikeln från 1963, Peter Wahlgrens avhandling från 1992 och publikationen Artificial intelligence and law). Men som forskarna bakom den nya algoritmen konstaterar är det först på senare tid landvinningar inom bl a maskininlärning gjort det möjligt att omsätta teorierna i praktik.
Flera liknande lösningar är i bruk eller under utveckling. Microsoft utvecklar exempelvis en algoritm som ska kunna förutsäga intagnas återfallsrisk. Lexpredict förutser hur domarna i USA:s Supreme Court dömer. RavelLaws Judge Analytics analyserar på liknande sätt hur enskilda domare dömer och tolkar prejudikat. Och The Arnold algorithm, som jag skrivit om tidigare, används av ett växande antal delstater för att avgöra om misstänkta ska hållas häktade eller friges mot borgen.
Många hoppas att AI och onlinetjänster ska förbättra enskildas möjligheter att ta rättigheter tillvara. Tekniken kan göra juridiken mer tillgänglig, men den medför också nya rättssäkerhetsproblem. Informationen algoritmerna matas med, och lär sig av, kan innehålla bias som återspeglar förväntningar eller fördomar (bildgoogla orden "CEO" och "teacher" för en fingervisning).
Sådan bias kan förstås också smyga sig in i den dömande verksamheten, även om själva besluten inte överlåts åt datorer. Riskmodellen COMPAS, som i likhet med The Arnold algorithm används av domstolar för att bedöma återfallsbenägehet, har exempelvis anklagats för att diskriminera svarta. Och för att göra det svårt för berörda att förstå hur domstolen dömt, eftersom utvecklaren hemlighåller hur den fungerar. Wisconsins högsta domstol slog i en unik dom nyligen fast att domare kan använda sig av COMPAS, men tillade att analysen inte får vara avgörande för beslutet.
Läs också:
Nu kommer de digitala domstolarna
Brittiska rättsväsendet blir "digital by default"
Fredrik Svärd
[email protected]