tisdag 4 april 2023

Är AI Act rätt lagstiftning för innovation och säkerhet?

AI-lagstiftning blir av nödvändighet komplicerad om den ska vara centraliserad och omfattande. Olika tillvägagångssätt ger olika bra resultat. Förenklat finns tre vägar idag: Kina, EU och USA.

Kina har en pedantiskt detaljerad, centraliserad och statsdriven utveckling av AI. Det finns inte mycket utrymme för självständiga innovationer eller bedömning av tekniken och dess användning. Det är samtidigt en utvecklingsplan som är ganska skör och stelbent, inte minst då tekniken fortfarande har en hel del utvecklingspotential kvar.

USA:s tillvägagångssätt lutar sig mot "soft law" eller informella styrningsmekanismer som inte är lika betungande. Soft law kan inkludera olika verktyg och metoder för att ta itu med policyfrågor, inklusive initiativ från flera intressenter, bästa praxis och standarder och vägledningsdokument, utbildningsinsatser och mycket mer. Det här är styrverktygen som dominerat internet och de digitala plattformarna i USA, och de kommer nog fortsätta gälla för AI.

Har EU hittat mellanläget mellan Kina och USA i AI Act? Det beror på om EU:s politiker håller kvar vid den linjen, och hur dataskyddsförordningen GDPR samspelar med AI Act. I kombination med att vilja tillämpa försiktighetsprincipen på AI-utvecklingen finns det en lockelse att utse europeiska “champions” inom AI, då en GDPR-liknande databehandling ändå gör kostnaderna så höga för att utveckla AI- tillämpningarna.

Risken finns att innovatörer och investerare återigen lägger sina ägg i den amerikanska korgen. Samtidigt kommer Kina sannolikt att attrahera mycket mer globalt riskkapital för lanseringar av AI och robotik än vad de gjorde för digitala plattformar.

Om AI Act håller lagstiftningen till enkla allmängiltiga grundregler, skulle Europa kunna åstadkomma både säkerhet och innovation, även om man inte vill göra exakt samma som USA.