Finns det inte redan många politiska samtal om AI? För tekniken finns ju ute i verksamheten och tillämpas. Stanfords Artificial Intelligence Index Report beskriver också "en lavin av initiativ och policydokument" och att fler områden talar om AI- etik.
Är det bara "hard law" som utgör politiskt intresse för en samhällsutveckling? Annars verkar det vara att "soft law" redan tillämpas inbakad i utvecklingen av t.ex. organisationer som IEEE, ACM, ISO eller Consumer Technology Association och kan redan nu vara lösningen på handfasta policyfrågor samt anpassas till framtida behov. Det finns även polycentriska styrinitativ på AI-området, som OECD-stödda GPAI.
Då blir det en fråga för produktutveckling, handfasta politiska frågeställningar med AI som verktyg, samordning av tekniketiska diskussioner, riskanalys och riskhantering samt jämförelser av best practice.
Elon Musk undertecknade uppropet för att pausa utvecklingen av AI, men han är samtidigt en av de större utvecklarna av AI. Vad kan vi lära oss om AI-utveckling från Elon Musks egna projekt?
Tesla plågas idag av återkallade bilar. I mitten av 10-talet var Musks Tesla ett av de företag som ledde utvecklingen av självkörande bilar. Jag skrev själv om Drive Me-projektet i Göteborg och om autonoma fordon.
Fordonets förmåga beskrivs i en skala av autonomi, mellan nivåerna 0 och 5 i självständighet. Idag återkallas Teslas bilar av myndigheterna i USA med en autonomi som motsvarar nivå 2. Det är långt från nivå 5, som ofta spåddes skulle dominera trafiken nu i början av 20-talet. Idag verkar bedömare säga att nivå 3-5 når upp till 10-15% av marknaden på 30-talet.
Det kan också vara en alltför optimistisk prognos, inte minst tidsmässigt. Självkörande fordon är beroende av att kunna läsa av signaler, vägmärken och andra anvisningar för trafiken. Det fanns redan under hypen tecken på att bilarna behöver en omfattande digital infrastruktur.
Utvecklingen har inte stoppats, men det finns frågor om autonoma fordon högre än nivå 3 kommer att bli värda jobbet. Kommer sensorerna att bli tillräckligt mycket bättre? Hur väl utvecklas XAI? Vad händer när frågeställningarna går från spårvagnsproblemet till att handla om trafikfilosofi, stadsplanering och kostnadskalkyler? Kan flera olika svar komma fram och konkurrera?
Det här är utmanande. Det är inte minst därför att tillämpningar av “AI-teknik” i en vid mening redan finns. Förutom ett tekniskt genombrott så kommer troligen generativ AI, med stora språkmodeller som Chat GPT, att behöva fler steg av innovationer inom samhälle, ekonomi och kultur för att kunna nå de nivåer som är uttänkta. Flaskhalsen kan även här bli affärsomställning, personalomställning och brist på innovationer längre ned i kedjan.
Amaras lag gör sig troligen gällande på sikt. Det gjorde den inte inom biotekniken, kärnkraften, nanotekniken eller eHälsan. Risken finns att vi inte ens skyddar oss mot riskerna från tekniken ifråga eller från de faror som tekniken skulle lösa.
Elon Musk kommer förmodligen inte att ge sina AI-utvecklare på Tesla sex månaders betald ledighet för att pausa utvecklingen. Troligen kommer vi få större framgångar med principer som tillåter anpassningsförmåga i innovationssystemen.
In a techpanic, the technology is often described in an imagined future, and not in the first versions available to the inventor, engineers and early adopters. Are the smartest and most far-sighted decisions really made in those conditions? In The Pattern of Technology Panic you can read that even technology panics follow Gartner's hype curve, and can in the worst case incite ill-considered bans and restrictions.
I en teknikpanik beskrivs tekniken ofta i en tänkt framtida, färdig form och inte i de första versioner som finns tillgängliga för uppfinnaren, tekniker och early adopters. Fattas verkligen de smartaste och mest framsynta besluten i från det läget? I Teknikpanikens mönster kan du läsa att även teknikpaniker följer Gartners hajpkurva, och kan i värsta fall hetsa fram ogenomtänkta förbud och begränsningar.
I USA har RESTRICT Act stöd i senaten, och från presidenten, för att ta itu med den framväxande risken från utländska IKT-produkter och tjänster. Det handlar om den populära appen TikTok.
När det gäller datasäkerhet och informationspåverkan, hamnar fokus ofta på tekniken i sig snarare än på vad som eventuellt är brottsligt.
Lagförslaget handlar inte bara om datahantering, om att appen skulle kunna påverkas av Kinas Kommunistiska Parti eller hur mycket spionpussel Kinas säkerhetstjänst kan lägga från att se en minister dansa till Macarena.
RESTRICT Act skulle också tillåta myndigheterna att utöka antalet främmande makter som berörs av den. Då inkluderas tjänster som utvecklats i länder som inte följer USA:s linje när det gäller t.ex. kryptovalutor, kryptering eller yttrandefrihet på nätet. Risken finns också att amerikanska företag kan påverka vilka av deras utländska konkurrenter som omfattas av lagstiftningen.
"Innan man tar ett så drastiskt steg måste regeringen komma med specifika bevis som åtminstone påvisar ett verkligt problem och en snävt skräddarsydd lösning", skriver Electronic Frontier Foundation (EFF). De påpekar i Government Hasn't Justified a TikTok Ban att om Kina vill köpa data som kommer in på TikTok skulle det förmodligen kunna göra det iallafall. Det är då bättre att se över hur företag får använda personuppgifter och insamlad data från apparna i allmänhet.
Ett rimligare svar på TikToks röda fara skulle vara att vissa arbetsplatser skapar policys på vad som lämpligt att ha installerat på telefonen. Snäva skräddarsydda lösningar är sällsynta idag, då ofokuserade allmänna lagar grundade på tekniken i sig ger befogenheter till beslutsfattare de annars inte skulle få.
En intressant notering är att lagar som USA:s RESTRICT Act och EU:s Chat Control påminner om kinesiska myndigheters problemlösning. Börjar väst alltmer spela det spelet, finns det makter som kan spela det mycket bättre.
AI-lagstiftning blir av nödvändighet komplicerad om den ska vara centraliserad och omfattande. Olika tillvägagångssätt ger olika bra resultat. Förenklat finns tre vägar idag: Kina, EU och USA.
Kina har en pedantiskt detaljerad, centraliserad och statsdriven utveckling av AI. Det finns inte mycket utrymme för självständiga innovationer eller bedömning av tekniken och dess användning. Det är samtidigt en utvecklingsplan som är ganska skör och stelbent, inte minst då tekniken fortfarande har en hel del utvecklingspotential kvar.
USA:s tillvägagångssätt lutar sig mot "soft law" eller informella styrningsmekanismer som inte är lika betungande. Soft law kan inkludera olika verktyg och metoder för att ta itu med policyfrågor, inklusive initiativ från flera intressenter, bästa praxis och standarder och vägledningsdokument, utbildningsinsatser och mycket mer. Det här är styrverktygen som dominerat internet och de digitala plattformarna i USA, och de kommer nog fortsätta gälla för AI.
Har EU hittat mellanläget mellan Kina och USA i AI Act? Det beror på om EU:s politiker håller kvar vid den linjen, och hur dataskyddsförordningen GDPR samspelar med AI Act. I kombination med att vilja tillämpa försiktighetsprincipen på AI-utvecklingen finns det en lockelse att utse europeiska “champions” inom AI, då en GDPR-liknande databehandling ändå gör kostnaderna så höga för att utveckla AI- tillämpningarna.
Risken finns att innovatörer och investerare återigen lägger sina ägg i den amerikanska korgen. Samtidigt kommer Kina sannolikt att attrahera mycket mer globalt riskkapital för lanseringar av AI och robotik än vad de gjorde för digitala plattformar.
Om AI Act håller lagstiftningen till enkla allmängiltiga grundregler, skulle Europa kunna åstadkomma både säkerhet och innovation, även om man inte vill göra exakt samma som USA.
Debatten om AI hamnar ofta i teorier om hur många av dem som kan dansa på ett nålhuvud. Lösningar verkar handla om åtgärder i stil med ett globalt moratorium eller bildandet av en myndighet för ansvarsfull AI. Fortfarande år 2023 diskuteras olika företeelser som t.ex. AI, AGI och MML som om de var en och samma, och där svar och åtgärder ryms under ett och samma tak.
Fast efter att läst en serie reportage i tidskriften WIRED så kommer frågeställningarna närmare vardagen, om än i en annan form. I artikelserien "The Suspicion Machine" skildrar WIRED:s journalister hur den automatiserade byråkratin redan rullas ut.
Företag runt om i världen säljer in regeringar på löftet att algoritmer för bedrägerijakt kan hjälpa dem att få tillbaka offentliga medel. Forskare som spårar spridningen av dessa system hävdar att dessa företag ofta är överbetalda och inte nog övervakade. Nyckelfrågan, säger forskare, är ansvarsskyldighet. När komplexa maskininlärningsmodeller eller enklare algoritmer utvecklas av näringslivet, klassas koden som definierar vem som anklagas för välfärdsfusk ofta som immateriell egendom. Då fattar system beslut utan transparens eller frågor. Det blir svårt att få ut svar. Utbyggnaden av automatiserad byråkrati har skett snabbt och tyst, men det har lämnat en rad skandaler i spåren.
Artiklarna visar hur Danmark bygger algoritmer för att profilera förmånstagare från etnicitet, ett system där teknik och politiska agendor har blivit sammanflätade.
Det är inte lätt. Om statens välfärdssystem ska vara omfattande och styra så många aspekter av människors liv, så måste de stoppa fusk och misstag. Fast systemen borde ställa svåra frågor tillbaka till både politiker och väljare om vilka värderingar som borde stå bakom, samt vilka alternativen är. Redan idag får det politisk betydelse, Nederländernas regering föll år 2021 på det här. Det är frågor som kräver praktiskt tänkande.