Wikipedia

Sökresultat

lördag 6 juli 2019

Databehandling och skydd för ett innovativt samhälle

Illustration som visar människor, mobila enheter och digitala dataflöden kopplade till ett gemensamt nätverk. Bilden symboliserar databehandling, digitalisering, öppen data, integritet, GDPR och hur insamling, ägarskap och kvalitet på data påverkar företag, offentlig sektor och användarnas förtroende i den digitala ekonomin.

Databehandling är väsentligt för små och stora företag, oavsett bransch. Det är genom spridningseffekterna som digitaliseringen påverkar samhället i stort.

Hur insamling och bearbetningen av data går till kommer att spela stor roll för vilka tjänster som utvecklas och användarnas fortsatta förtroende. Nu när maskingenererad data framställs, såsom exempelvis data genererad genom maskininlärning och artificiell intelligens, blir kvaliteten på data allt viktigare, går det att fortsätta använda gratis data snarare än bra data för att få fram rätt information?

Skydd för data ges av tre lagar: upphovsrättslagen, lagen om skydd för företagshemligheter och Dataskyddsförordningen GDPR.

Upphovsrättslagen skyddar formen av den data som sammanställts, inte datan i sig, som kan uttryckas i en annan form. Det gäller även för databaser, lagen skyddar sammanställningen.

Lagen om företagshemligheter kan betyda problem om flera varit med om att samla in datan och bearbeta den. Det sker ofta idag och om inte äganderätten är klart uttryck kan den hemliga datan inte skyddas.

GDPR är i mycket en uppdatering av dataskyddsdirektivet från 1995 (i Sverige antaget som PuL), men idag är vi till skillnad från 1995 alla databehandlare. Att anpassa sig till GDPR:s regelverk har tvingat många företag till tids- och kostnadskrävande omställningar när det gäller att samla in, bearbeta och sprida dataflöden. Det är kostsamt med ofta otydlig nytta, vilket ger en ojämn tillämpning för olika aktörer.

Regleringar tenderar att frysa marknaden till läget vid regleringens införande. Det gynnar främst de större marknadsaktörerna som har råd att kunna följa regleringarna. I värsta fall kan det slå undan benen för nya aktörer, eller att marknaden i sin helhet utsätts för disruption till att själva affärsmodellen förändras. Risken finns att istället för att skapa bättre system för datainsamling så uppfyller företagen bara det som krävs för compliance.

Nu ändras reglerna kring öppen data och öppnas upp, i enlighet med Psi-direktivet, istället för att de var tänkta en stor inkomstkälla för de dataintensiva myndigheterna. Öppna data kommer fortsatt att vara en viktig fråga när kommuner och regioner köper in tjänster som de tidigare själva producerade. En del kommuner kan säkert tänka sig, i ekonomiskt svåra tider, att betala entreprenörerna med användardata. Därför bör det i upphandlingarna finnas tydliga krav på ägarskap av data, hur data får behandlas och hur data ska tillgängliggöras för allmänheten.

De bästa lösningarna för databehandling står ofta att finna i just tekniken. Det finns en viktig nisch att fylla för den som kan skapa produkter, tjänster och affärsmodeller för att skydda användarnas data.

Ett bra exempel på en teknisk lösning för att få kontroll över vilka data som lämnas ut är annonsblockerare för webbläsare, så att användaren själv får kontroll. Adblocks visar dock att även tekniska lösningar kan vara kontroversiella, då de störde ut tidningar och plattformars annonsdrivna affärsmodeller.

Very Good Security - VGS, är förstås en lek med namnet Pretty Good Privacy, PGP. VGS är en mellanhand som anonymiserar transaktioner, auktorisationer och autentifieringar så att persondata inte lagras och sänds runt till att försäljare och deras kontakter. Konkurrensen driver integriteten, som exempelvis Google Incognito Mode. Företag vill inte lagra data, de vill bara använda dem.

Många har byggt upp en mycket centraliserad och kontrollinriktad dataarkitektur, men idag samlas data in från många olika källor. Heterogena data ställer frågor kring uppskattningar av strikt ansvar mot oaktsamhet, annars finns risken att systemen blir sårbara. Här har blockkedjan påtänkts som ett sätt att skydda data decentraliserat.

Risken är att vi avskräcker användarna från att använda data med fel policy – många användare har något skämtsamt sagt att de skulle återgå till papper och penna på grund av GDPR (som i själva verket är teknikneutral).

Det som påtänkts hittills är nationella handlingsplaner, som AI-agendan. Vi har också kunskap att hämta från nobelpristagaren Elinor Ostrom och hennes tankar om institutioner. Det kan utveckla fler standarder för datainsamling, best practice, ratings för hur väl data behandlas, mellanhänder och metaplattformar. Försäkringsbranschen har också en viktig roll att spela i att ta fram bra standarder. Vi ska inte heller underskatta den betydelse som sociala normer hos användarna spelar för att styra databehandlingen rätt.

Kritiken brukar handla om att Ostroms tankar inte kan användas på något så omfattande som datainsamling har blivit, men det missar poängen. Det är många bäckar små, en mångfald av lösningar, som kan ge bättre databehandling för alla.

Ovanstående är en redigerad variant av talespunkter framtagna för ett rundabordssamtal i Almedalen lett av Christina Wainikka från Svenskt Näringsliv, med Carolina Brånby från Svenskt Näringsliv, Jon Simonsson från Kommittén för teknologisk innovation och etik (KOMET)), Christine Grahn från Facebook och My Bergdahl från IT & Telekomföretagen.

söndag 31 mars 2019

Dags att göra en Artificiell Intelligens till statsminister?


Vill vi att vår nästa statsminister ska vara en AI? En opinionsundersökning gjord av Center for the Governance of Change vid IE University i Spanien av 2.500 européer om deras attityder till artificiell intelligens. Det verkar vanligt att många ser AI som ett vagt hot men en förvånansvärt hög andel angav att de skulle vilja styras av en AI.

Delvis är det nog en missnöjesröst mot samtidens politiker, men delvis är det en utveckling som är på gång. Beslutsfattandet och politikerrollen har börjat känna av automatiseringen. Abishur Prakash skriver om de artificiella intelligenser som redan finns i politiken i artikeln AI-Politicians: A Revolution In Politics och Kok Yam Tan om berättar om maskininlärning och dess användning i Singapores statsförvaltning i Machine learning for better governance. Det är former av beslutsstöd som är i linje med tidigare utvecklingar av IT.

Den kulturella bilden av AI som president, som objektiv bedömare och genomförare av data är dock fascinerande, oroande och talande för vår samtid.

Dagens rena och integrerade datainsamling och processande verkar annorlunda mot sovjetiska planministeriet GOSPLAN:s gissande storrökande tjänstemän. Då dessutom liberaler och marknadsförespråkare sällan står upp för självorganisation och spontana ordningar, så framstår AI som en bättre lösning på komplexa problem.

Problemet är kunskapsteoretiskt: data är inte information, och information ger inte kunskap. Det gäller att förstå vad AI kan och inte kan göra.

Statistik hjälper till att räkna vad som finns i ekonomin, men det ger inte kunskap om vilken nytta det gör. Därav den klassiska vitsen om en sovjetisk fabrik som uppfyllde hela sin årskvot i en enda stor spik.

Vi behöver inte ens ta med i beräkningen att statistiken skulle kunna vara medvetet manipulerad. AI möter också problem med datainsamlingsmetoder, tolkningsproblem och målproblem som i Goodharts lag. Man vill ju uppnå målen och det har inte med mänsklig strävan att göra, så mycket som strävan efter systemoptimering. AI:n räknar vad den kan räkna, söker det den kan finna och kan fås att finna vad den är satt att finna i en datamängd. Det behövs inte ens en digitaliserad Stalin för det.

Fast nu beräknar väl ändå AI efter metadata? De behöver inte gå efter dåliga källor som redan rensats ut? Big Data hittar samband där inte människor kan.

Data påverkas dock även i efterhand av vidarebehandling för att kunna passa ihop med data som samlats in tidigare. När en AI lär sig kan en mycket enkel modell med få data vara mer tillförlitlig än en mer komplicerad därför att det blir så många olika faktorer som påverkar modellen. Modellerna kan bli mer komplicerade allteftersom de behöver kompensera för någon observation som inte stämmer in i postulaten. Det är en deduktiv teori, beroende av extrapolerade parametrar. Nya observationer och fynd kan snarare bli problem som måste mötas med backtracking. De data som saknas spelar förstås roll, från att de inte finns eller att de inte finns tillgängliga.

De faktorerna stör även en AI:s förhållandevis förenklade centrala beslutsfattande med lokala fel och lokala förhållanden. Den möter också risken för en statisk världsbild, där vissa mål ges universell giltighet.

Det behöver inte gå till instrumentell konvergens, det klassiska exemplet med en AI som sätts att tillverka största möjliga antal gem och tillslut gjort gem av hela planeten. Riskerna i belöningsmaximerande AI dras ofta ut till att bli problem för AI i allmänhet, snarare än just det belöningsmaximerande paradigmet för att bygga superintelligent AI.

Så en AI fungerar som en dator, GIGO, efter de värderingar som dess skapare lägger in i systemet den lär sig efter. AI kan vara bra på att synliggöra just den bias som läggs in i systemet, vilket inte alltid människor behöver göra. Det lägger dock till just den variabel så många vill undvika med att tänka att en AI borde fatta besluten, fria val och dess koppling till ansvar.

torsdag 14 mars 2019

Källkritik, vetenskap och fake news

Närbild av en hand i laboratoriehandske som placerar ett blad på ett objektglas under ett mikroskop. Bilden symboliserar vetenskaplig metod, empirisk forskning och vikten av källkritik. Används som visuell metafor för granskning av forskningsresultat, vetenskapsjournalistik, reproducerbarhet och hur vetenskap bör tolkas i offentlig debatt snarare än som politiska eller moraliska ställningstaganden.

Det är Källkritikens dag och i samband med det tänker jag tillbaka på Sveriges Radios diskussion ”Frukostseminarium 7 mars: Hur svårt kan det vara?”.

Seminariet avsåg att ta upp frågan hur bra är forskare är på att begripliggöra och informera om sin forskning och hur bra är medierna på att granska och rapportera om den. Det oroande är hur samhällsdebatten kring forskning oftare ställs upp till att handla om ”Vetenskapen vs. Populism och Fake news”.

Paneldeltagaren Anders Mildner noterar under samtalet en politisk polarisering av både medier och forskning, där sidorna skaffar sig hjältar och förkämpar bland forskarna. Det riktigt oroande med det är att utvecklingen kan att minska källkritiken även i den etablerade mediebevakningen. Vetenskapen är en process, inte ett ställningskrig. I ”Larmen vingklipper vetenskapsjournalistiken” beskrivs förändringen i takt med att vetenskapsdesken sparas in på redaktionerna. Sedan skrevs har nya frågeställningar framkommit om replikationskrisen (läs mer i "Replikationskrisen, p-hackarna i vetenskapen") och fler politiska påtryckningar och styrningar (läs mer i "Evidensbaserad politik eller policybaserad evidens?"). Internet kan i sin tur även ha öppnat upp debatten om forskningsfält som länge varit politiserade.

Vetenskapsjournalisten Matt Ridley skriver i ”Lying with science: a guide to myth debunking
Pseudoscience is on the rise – and the media is completely hooked ” att medier, politiker och påtryckargrupper har smidigt kunnat gå mellan förutse katastrof på katastrof utan att behöva tänka på tidigare felaktiga larm. Ridley noterar att det snarast blir allt mer larmjournalistik när konkurrensen ökar. Även avslöjade larm kan fortsätta rulla på som egna berättelser, där Ridley tar upp de endokrina disruptorerna med bisfenol A (läs mer i ”Bisfenol A, kemofobi och forskning”) efter den stora Clarity-studien som inte uppmärksammats av medierna. Det ursprungliga larmet får rubrikerna och krönikorna på ledarsidorna som spinner berättelsen vidare. Rättelserna kommer senare och får inte uppmärksamhet. Larmet blir kvar i läsarnas medvetande.

Mediebevakningen har svårt att ge publiken en bra uppfattning av hur mycket data som forskare kan ha, vilka slutsatser som är möjliga från det materialet och vilken effekt som egentligen politik kan ha. Exempel på det är det sura regnet, skogsdöden och ozonlagret. Allmänheten antar att de löste sig för att industriproduktionen i Polen, Tjeckoslovakien och Östtyskland föll ifrån med Östblockets fall och att Montrealprotokollet fick stora effekter. Det saknas data och problemen var överrapporterade (läs mer i ”Ozonhålet ökar eller minskar?”).

Vetenskapsjournalistiken behöver ge publiken en uppfattning om vad som är stark forskning och ge en förståelse av hur vetenskap fungerar. I samhällsdebatten, och även i panelen beskrivs vetenskapen som empirisk forskning men mycket av det som tas upp i media är deduktion från datamodeller som bygger på antaganden. Sant och falskt ger inte ett lika bra intryck som stark eller svag när studier diskuteras (läs mer i fallet ”Föredrar verkligen stressade män tjockare kvinnor?”)

Risken är att vetenskapen tolkas som moraliska ställningstaganden. Kommunikationsavdelningarna på universiteten och forskningsinstituten växer för att kunna nå ut till allmänheten och beslutsfattarna för att fylla tomrummet från mediebevakningen.

Det kan driva på polariseringen. Forskare åtnjuter ofta ett högt förtroende från allmänheten (högre än journalisterna) genom sina kunskaper men även för att forskaren och dennes resultat ju är storyn som journalistens artikel baserar sig på. Det ger ett inbyggt förtroende redan att just den här forskningen uppmärksammas. Det är sällan som man läser om att forskare bekräftat att deras antagande inte stämmer eller inte kan bevisas. Är det forskningsinstituten själva som lyfter den finns inte samma förtroende.

Ridley varnar i sin artikel för att ursäkta överdrifter och felaktigheter för den goda sakens skull, då det kan leda till en backlash. Därför är det viktigt att nyanser kommer fram i bevakningen.

Scope and purpose of this archive

This blog is a curated archive of selected writings on public policy, governance and the role of research in decision-making under uncertain...