torsdag 25 september 2014

Vad hotar mänsklighetens överlevnad?

Det är inte särskilt sannolikt att hela mänskligheten kommer att utplånas fullständigt inom en nära framtid, men om det skedde vilken katastrof skulle då vara mest sannolik? Kommer fältet Artificiell Intelligens att utvecklas så mycket att en superintelligens, överlägsen all mänsklig intelligens, kan tillverkas?

Den sortens frågor måste handla om mer än att spekulera om hur många änglar som kan dansa på ett nålshuvud. De behöver underbyggas av en rationell riskanalys. I Nyhetsmagasinet Fokus i nummer 38 2014 skriver jag om Katastroffilosofen Nick Boström och om hans nya bok Superintelligence. Vilka risker ser Boström framöver och finns det något som kan göras för att undvika det värsta?

Läs även andra bloggares åsikter om , , , , , , ,

Intressant

Google Gemini - the innovator's dilemma?

Det var många som reagerade på Googles AI Gemini. I sitt försök att korrigera tidigare bias i sökmotorn har Google fått kritik för att ha gå...