söndag 18 januari 2015

Hur många artificiella intelligenser kan dansa på ett nålshuvud?

Det talas mycket mer om artificiell intelligens nuförtiden. Elon Musk och Stephen Hawking varnar för superintelligent AI kan innebära en stor katastrof för mänskligheten. I nästa månad utkommer boken Superintelligence av Nick Boström på svenska.

När Max Tegmark skrev sitt öppna brev om forskningsprioriteringar blev media extra intresserade för att det var början till ett nytt institut om existensiella risker med utgångspunkt från en konferens i San Juan på Puerto Rico.

Superintelligent AI är en intressant fråga att forska om och diskutera. Samtidigt är det en yrvaken reaktion från akademiker och opinionsbildare, då man låtit sig ta på sängen av utvecklingarna inom digitaliseringen. En varning för AI-apokalyps smäller dessutom högre än en tråkig rubrik om att det pågår forskning.

För Elon Musk donerar kanske mycket pengar till Future of Life Institute, men han är främst företagare och inte AI-expert. Stephen Hawking brukar gilla att komma med storstilade uttalanden, men han är främst kosmolog, och hans Cambridge University har nyligen lanserat ett eget forskningscentrum för existensiell risk som ska marknadsföras.

AI-forskningen har pågått länge, och ofta så har budskapet från forskarna varit att om 10-20 år så är en maskin lika intelligent som en människa. Det underskattar hur svårt arbetet ofta är, snarare än att försöka hitta den rätta algoritmen som skriver sig själv så är AI-forskning ett långsamt hantverk där man sitter och filar på kod månad efter månad. Mer gnet än heureka, och det är därför som förhoppningen att större forskningsanslag ska lösa problemen inte är så verksam som många tror.

För den viktigaste forskningen framöver när det gäller AI är nog inte att försöka räkna ut den troligen mycket låga sannolikheten för att en superintelligent AI som påminner om gamla testamentets Jehova ska slippa lös.

Just nu är superintelligent AI fråga om mer eller mindre välgrundade spekulationer, och vårt samhälle har inte varit så bra på att bemöta stora risker med låg sannolikhet. Det är viktigare att undersöka riskerna för att AI-program inte kraschar, har buggar eller råkar bryta mot lagar eller personlig integritet i sina arbetsuppgifter. Det är mer hanterbara risker och det finns bättre möjlighet att ta vara på teknikens fördelar.

Läs även andra bloggares åsikter om , , , , , , , , , ,

Intressant