måndag 3 april 2023

Är AI den misstänksamma maskinen?

Debatten om AI hamnar ofta i teorier om hur många av dem som kan dansa på ett nålhuvud. Lösningar verkar handla om åtgärder i stil med ett globalt moratorium eller bildandet av en myndighet för ansvarsfull AI. Fortfarande år 2023 diskuteras olika företeelser som t.ex. AI, AGI och MML som om de var en och samma, och där svar och åtgärder ryms under ett och samma tak.

Fast efter att läst en serie reportage i tidskriften WIRED så kommer frågeställningarna närmare vardagen, om än i en annan form. I artikelserien "The Suspicion Machine" skildrar WIRED:s journalister hur den automatiserade byråkratin redan rullas ut.

Företag runt om i världen säljer in regeringar på löftet att algoritmer för bedrägerijakt kan hjälpa dem att få tillbaka offentliga medel. Forskare som spårar spridningen av dessa system hävdar att dessa företag ofta är överbetalda och inte nog övervakade. Nyckelfrågan, säger forskare, är ansvarsskyldighet. När komplexa maskininlärningsmodeller eller enklare algoritmer utvecklas av näringslivet, klassas koden som definierar vem som anklagas för välfärdsfusk ofta som immateriell egendom. Då fattar system beslut utan transparens eller frågor. Det blir svårt att få ut svar. Utbyggnaden av automatiserad byråkrati har skett snabbt och tyst, men det har lämnat en rad skandaler i spåren.

Artiklarna visar hur Danmark bygger algoritmer för att profilera förmånstagare från etnicitet, ett system där teknik och politiska agendor har blivit sammanflätade.

Det är inte lätt. Om statens välfärdssystem ska vara omfattande och styra så många aspekter av människors liv, så måste de stoppa fusk och misstag. Fast systemen borde ställa svåra frågor tillbaka till både politiker och väljare om vilka värderingar som borde stå bakom, samt vilka alternativen är. Redan idag får det politisk betydelse, Nederländernas regering föll år 2021 på det här. Det är frågor som kräver praktiskt tänkande.