söndag 31 mars 2019

Dags att göra en Artificiell Intelligens till statsminister?


Vill vi att vår nästa statsminister ska vara en AI? En opinionsundersökning gjord av Center for the Governance of Change vid IE University i Spanien av 2.500 européer om deras attityder till artificiell intelligens. Det verkar vanligt att många ser AI som ett vagt hot men en förvånansvärt hög andel angav att de skulle vilja styras av en AI.

Delvis är det nog en missnöjesröst mot samtidens politiker, men delvis är det en utveckling som är på gång. Beslutsfattandet och politikerrollen har börjat känna av automatiseringen. Abishur Prakash skriver om de artificiella intelligenser som redan finns i politiken i artikeln AI-Politicians: A Revolution In Politics och Kok Yam Tan om berättar om maskininlärning och dess användning i Singapores statsförvaltning i Machine learning for better governance. Det är former av beslutsstöd som är i linje med tidigare utvecklingar av IT.

Den kulturella bilden av AI som president, som objektiv bedömare och genomförare av data är dock fascinerande, oroande och talande för vår samtid.

Dagens rena och integrerade datainsamling och processande verkar annorlunda mot sovjetiska planministeriet GOSPLAN:s gissande storrökande tjänstemän. Då dessutom liberaler och marknadsförespråkare sällan står upp för självorganisation och spontana ordningar, så framstår AI som en bättre lösning på komplexa problem.

Problemet är kunskapsteoretiskt: data är inte information, och information ger inte kunskap. Det gäller att förstå vad AI kan och inte kan göra.

Statistik hjälper till att räkna vad som finns i ekonomin, men det ger inte kunskap om vilken nytta det gör. Därav den klassiska vitsen om en sovjetisk fabrik som uppfyllde hela sin årskvot i en enda stor spik.

Vi behöver inte ens ta med i beräkningen att statistiken skulle kunna vara medvetet manipulerad. AI möter också problem med datainsamlingsmetoder, tolkningsproblem och målproblem som i Goodharts lag. Man vill ju uppnå målen och det har inte med mänsklig strävan att göra, så mycket som strävan efter systemoptimering. AI:n räknar vad den kan räkna, söker det den kan finna och kan fås att finna vad den är satt att finna i en datamängd. Det behövs inte ens en digitaliserad Stalin för det.

Fast nu beräknar väl ändå AI efter metadata? De behöver inte gå efter dåliga källor som redan rensats ut? Big Data hittar samband där inte människor kan.

Data påverkas dock även i efterhand av vidarebehandling för att kunna passa ihop med data som samlats in tidigare. När en AI lär sig kan en mycket enkel modell med få data vara mer tillförlitlig än en mer komplicerad därför att det blir så många olika faktorer som påverkar modellen. Modellerna kan bli mer komplicerade allteftersom de behöver kompensera för någon observation som inte stämmer in i postulaten. Det är en deduktiv teori, beroende av extrapolerade parametrar. Nya observationer och fynd kan snarare bli problem som måste mötas med backtracking. De data som saknas spelar förstås roll, från att de inte finns eller att de inte finns tillgängliga.

De faktorerna stör även en AI:s förhållandevis förenklade centrala beslutsfattande med lokala fel och lokala förhållanden. Den möter också risken för en statisk världsbild, där vissa mål ges universell giltighet.

Det behöver inte gå till instrumentell konvergens, det klassiska exemplet med en AI som sätts att tillverka största möjliga antal gem och tillslut gjort gem av hela planeten. Riskerna i belöningsmaximerande AI dras ofta ut till att bli problem för AI i allmänhet, snarare än just det belöningsmaximerande paradigmet för att bygga superintelligent AI.

Så en AI fungerar som en dator, GIGO, efter de värderingar som dess skapare lägger in i systemet den lär sig efter. AI kan vara bra på att synliggöra just den bias som läggs in i systemet, vilket inte alltid människor behöver göra. Det lägger dock till just den variabel så många vill undvika med att tänka att en AI borde fatta besluten, fria val och dess koppling till ansvar.