söndag 31 mars 2019

Dags att göra en Artificiell Intelligens till statsminister?


Vill vi att vår nästa statsminister ska vara en AI? En opinionsundersökning gjord av Center for the Governance of Change vid IE University i Spanien av 2.500 européer om deras attityder till artificiell intelligens. Det verkar vanligt att många ser AI som ett vagt hot men en förvånansvärt hög andel angav att de skulle vilja styras av en AI.

Delvis är det nog en missnöjesröst mot samtidens politiker, men delvis är det en utveckling som är på gång. Beslutsfattandet och politikerrollen har börjat känna av automatiseringen. Abishur Prakash skriver om de artificiella intelligenser som redan finns i politiken i artikeln AI-Politicians: A Revolution In Politics och Kok Yam Tan om berättar om maskininlärning och dess användning i Singapores statsförvaltning i Machine learning for better governance. Det är former av beslutsstöd som är i linje med tidigare utvecklingar av IT.

Den kulturella bilden av AI som president, som objektiv bedömare och genomförare av data är dock fascinerande, oroande och talande för vår samtid.

Dagens rena och integrerade datainsamling och processande verkar annorlunda mot sovjetiska planministeriet GOSPLAN:s gissande storrökande tjänstemän. Då dessutom liberaler och marknadsförespråkare sällan står upp för självorganisation och spontana ordningar, så framstår AI som en bättre lösning på komplexa problem.

Problemet är kunskapsteoretiskt: data är inte information, och information ger inte kunskap. Det gäller att förstå vad AI kan och inte kan göra.

Statistik hjälper till att räkna vad som finns i ekonomin, men det ger inte kunskap om vilken nytta det gör. Därav den klassiska vitsen om en sovjetisk fabrik som uppfyllde hela sin årskvot i en enda stor spik.

Vi behöver inte ens ta med i beräkningen att statistiken skulle kunna vara medvetet manipulerad. AI möter också problem med datainsamlingsmetoder, tolkningsproblem och målproblem som i Goodharts lag. Man vill ju uppnå målen och det har inte med mänsklig strävan att göra, så mycket som strävan efter systemoptimering. AI:n räknar vad den kan räkna, söker det den kan finna och kan fås att finna vad den är satt att finna i en datamängd. Det behövs inte ens en digitaliserad Stalin för det.

Fast nu beräknar väl ändå AI efter metadata? De behöver inte gå efter dåliga källor som redan rensats ut? Big Data hittar samband där inte människor kan.

Data påverkas dock även i efterhand av vidarebehandling för att kunna passa ihop med data som samlats in tidigare. När en AI lär sig kan en mycket enkel modell med få data vara mer tillförlitlig än en mer komplicerad därför att det blir så många olika faktorer som påverkar modellen. Modellerna kan bli mer komplicerade allteftersom de behöver kompensera för någon observation som inte stämmer in i postulaten. Det är en deduktiv teori, beroende av extrapolerade parametrar. Nya observationer och fynd kan snarare bli problem som måste mötas med backtracking. De data som saknas spelar förstås roll, från att de inte finns eller att de inte finns tillgängliga.

De faktorerna stör även en AI:s förhållandevis förenklade centrala beslutsfattande med lokala fel och lokala förhållanden. Den möter också risken för en statisk världsbild, där vissa mål ges universell giltighet.

Det behöver inte gå till instrumentell konvergens, det klassiska exemplet med en AI som sätts att tillverka största möjliga antal gem och tillslut gjort gem av hela planeten. Riskerna i belöningsmaximerande AI dras ofta ut till att bli problem för AI i allmänhet, snarare än just det belöningsmaximerande paradigmet för att bygga superintelligent AI.

Så en AI fungerar som en dator, GIGO, efter de värderingar som dess skapare lägger in i systemet den lär sig efter. AI kan vara bra på att synliggöra just den bias som läggs in i systemet, vilket inte alltid människor behöver göra. Det lägger dock till just den variabel så många vill undvika med att tänka att en AI borde fatta besluten, fria val och dess koppling till ansvar.

torsdag 14 mars 2019

Källkritik, vetenskap och fake news


Det är Källkritikens dag och i samband med det tänker jag tillbaka på Sveriges Radios diskussion ”Frukostseminarium 7 mars: Hur svårt kan det vara?”.

Seminariet avsåg att ta upp frågan hur bra är forskare är på att begripliggöra och informera om sin forskning och hur bra är medierna på att granska och rapportera om den. Det oroande är hur samhällsdebatten kring forskning oftare ställs upp till att handla om ”Vetenskapen vs. Populism och Fake news”.

Paneldeltagaren Anders Mildner noterar under samtalet en politisk polarisering av både medier och forskning, där sidorna skaffar sig hjältar och förkämpar bland forskarna. Det riktigt oroande med det är att utvecklingen kan att minska källkritiken även i den etablerade mediebevakningen. Vetenskapen är en process, inte ett ställningskrig. I ”Larmen vingklipper vetenskapsjournalistiken” beskrivs förändringen i takt med att vetenskapsdesken sparas in på redaktionerna. Sedan skrevs har nya frågeställningar framkommit om replikationskrisen (läs mer i "Replikationskrisen, p-hackarna i vetenskapen") och fler politiska påtryckningar och styrningar (läs mer i "Evidensbaserad politik eller policybaserad evidens?"). Internet kan i sin tur även ha öppnat upp debatten om forskningsfält som länge varit politiserade.

Vetenskapsjournalisten Matt Ridley skriver i ”Lying with science: a guide to myth debunking
Pseudoscience is on the rise – and the media is completely hooked ” att medier, politiker och påtryckargrupper har smidigt kunnat gå mellan förutse katastrof på katastrof utan att behöva tänka på tidigare felaktiga larm. Ridley noterar att det snarast blir allt mer larmjournalistik när konkurrensen ökar. Även avslöjade larm kan fortsätta rulla på som egna berättelser, där Ridley tar upp de endokrina disruptorerna med bisfenol A (läs mer i ”Bisfenol A, kemofobi och forskning”) efter den stora Clarity-studien som inte uppmärksammats av medierna. Det ursprungliga larmet får rubrikerna och krönikorna på ledarsidorna som spinner berättelsen vidare. Rättelserna kommer senare och får inte uppmärksamhet. Larmet blir kvar i läsarnas medvetande.

Mediebevakningen har svårt att ge publiken en bra uppfattning av hur mycket data som forskare kan ha, vilka slutsatser som är möjliga från det materialet och vilken effekt som egentligen politik kan ha. Exempel på det är det sura regnet, skogsdöden och ozonlagret. Allmänheten antar att de löste sig för att industriproduktionen i Polen, Tjeckoslovakien och Östtyskland föll ifrån med Östblockets fall och att Montrealprotokollet fick stora effekter. Det saknas data och problemen var överrapporterade (läs mer i ”Ozonhålet ökar eller minskar?”).

Vetenskapsjournalistiken behöver ge publiken en uppfattning om vad som är stark forskning och ge en förståelse av hur vetenskap fungerar. I samhällsdebatten, och även i panelen beskrivs vetenskapen som empirisk forskning men mycket av det som tas upp i media är deduktion från datamodeller som bygger på antaganden. Sant och falskt ger inte ett lika bra intryck som stark eller svag när studier diskuteras (läs mer i fallet ”Föredrar verkligen stressade män tjockare kvinnor?”)

Risken är att vetenskapen tolkas som moraliska ställningstaganden. Kommunikationsavdelningarna på universiteten och forskningsinstituten växer för att kunna nå ut till allmänheten och beslutsfattarna för att fylla tomrummet från mediebevakningen.

Det kan driva på polariseringen. Forskare åtnjuter ofta ett högt förtroende från allmänheten (högre än journalisterna) genom sina kunskaper men även för att forskaren och dennes resultat ju är storyn som journalistens artikel baserar sig på. Det ger ett inbyggt förtroende redan att just den här forskningen uppmärksammas. Det är sällan som man läser om att forskare bekräftat att deras antagande inte stämmer eller inte kan bevisas. Är det forskningsinstituten själva som lyfter den finns inte samma förtroende.

Ridley varnar i sin artikel för att ursäkta överdrifter och felaktigheter för den goda sakens skull, då det kan leda till en backlash. Därför är det viktigt att nyanser kommer fram i bevakningen.

Vart är den politiska skalan på väg på 2020-talet?

Stephen Davies, historiker, höll ett tal om det vid IEA:s THINK-konferens om en tankebild kring den nya politiska skalan. Davies an...