Kunstig intelligens: Når tar robotene over?

Dette innlegget er 9 år gammelt. Informasjon i innlegget kan være utdatert.
Illustrasjon: Ingvild Döderlein Åsebø
Illustrasjon: Ingvild Döderlein Åsebø

Forskere estimerer at roboter med kunstig intelligens vil overgå menneskehjernens prosesseringshastighet og funksjonalitet innen 2030. Realiteten av maskiner programmert til selvbevissthet, er et fremtidsscenario som bør skremme enhver.

Louise Bjerrum
Skribent

Kunstig intelligens, ‘artificial intelligence’ (AI), har blitt en svært viktig del av vår teknologiske industri. Du visste kanskje at søkemotorer benytter seg av AI, men visste du at bildetagge-funksjonen på Facebook, Netflix sine film- og serieforslag, Apple sin personlige assistent ‘Siri’, droner, X-box 360 Kinect-kameraet og aksjehandel, også er AI? Utover denne ʺhverdagsbrukenʺ har AI-forskere et langt mer omfattende prosjekt: å designe menneskelige agenter, deriblant roboter. Fremskrittene er store, men eksperter er bekymret. De frykter mange millioner jobber vil forsvinne innen 2025, at datamaskiner vil nå menneskehjernens prosesseringshastighet innen 2030 og at realiteten av et ʺTerminatorʺ-scenario ikke er helt urealistisk. Men har vi egentlig noe å være redde for? Kommer robotene til å ta over verden?

Matematiske regler styrer atferd

For å få et system til å vise intelligent atferd er vi nødt til å programmere det til hver minste detalj. Vi må programmere inn alle funksjoner vi anser som “intelligente”, slik som læring, planlegging, resonnering, problemløsning, persepsjon, kommunikasjon og kunnskapsrepresentasjon. I programmering brukes algoritmer – matematiske ʺsteg-for-stegʺ-instruksjoner som representerer kommandoene i et dataprogram.

Humanoider og androider

Humanoider er roboter bygd for å etterligne menneskekroppen med to ben, torso, armer og et hode. Designet er først og fremst utviklet for at humanoiden skal kunne interagere med menneskelige verktøy og miljøer, hvilket tillater forskere å bl.a. undersøke bipedal lokomosjon (gå på to ben) og hvordan små barn håndterer objekter.

Androider er humanoide roboter som ikke bare etterligner menneskekroppens funksjoner og atferd, men som også rent estetisk ser ut som mennesker. For å få androidene til å se så realistiske ut som mulig lages de ofte av biomimetisk materiale (bl.a. silikon som ser og føles ut som menneskehud). De fleste androider er i stand til øyeblikkelig kommunikasjon og interaksjon, virkeliggjort via algoritmer for mønstergjenkjenning og stemmegjenkjenning. Således kan androider både identifisere og gjenkjenne personer, ansiktsuttrykk og emosjoner, samt respondere med passende ansiktsuttrykk.

Kan maskiner tenke?

Ved å se hvordan humanoider og androider interagerer med sine omgivelser, kan vi (kanskje ubevisst) få en følelse av at de tenker. Men gjør de egentlig det? Alan Turing var den første som kom med ideen om at maskiner faktisk kan tenke. Han utviklet Turing-testen [1], der oppgaven er at vi skal avgjøre hvorvidt det er en maskin eller et menneske vi snakker med (vi ser ikke maskinen). Testen er bestått dersom maskinens responser får oss til å tro at vi interagerer med et menneske. Ingen maskin har hittil bestått, men gitt at det i nær fremtid er en som gjør det – har maskinen også et sinn; mentale tilstander og en bevissthet, slik vi har?

I filmen Ex Machina (2015) får AI-forskeren Nathan tak i den unge programmereren Caleb og sender han til et high-tech forskningssenter i ødemarken. Calebs oppgave er å avgjøre om ‘Ava’, en svært avansert android, består Turing-testen. Dersom Caleb ikke hadde sett Ava hadde hun bestått med glans. Den virkelige testen, i følge Nathan, er snarere hvorvidt Caleb føler Ava har bevissthet gjennom hans interaksjon med henne. Som Nathan sier: «Ava brukte selvbevissthet, manipulasjon, empati og seksualitet – og hvis dét ikke er ekte AI, hva er AI da?».

Ex Machina retter søkelyset mot AI sin dype, filosofiske kjerne: hvis vi designer roboter med hjerner som simulerer vår egen, vil robotene ha evne til (selv)bevissthet? Er de i stand til å forstå; har de metakognisjon (bevissthet om egen tenkning)? Hvis ikke, hva er det som gjør vår bevissthet så ʺmenneskeligʺ?

Disse spørsmålene er ikke bare science fiction, de er høyst aktuelle. Allerede i 2010 viste det seg å være mulig å dyrke frem en biologisk hjerne fra menneskelige nerveceller [2]. Etter nervecellene hadde utviklet seg til et stort nevralt nettverk ble nettverket koblet til en robot. Selv i et slikt tilfelle vil ikke “mannen i gata” tilskrive bevissthet til roboten, men enkelte vil hevde det er god grunn til å gjøre det: roboten har tross alt en biologisk hjerne av samme arkitektur som vår egen. Hvis vi likevel avskriver roboten bevissthet, går vi henimot at bevissthet er noe ikke-materielt? At sinnet er adskilt fra kroppen? En slik dualistisk posisjon á la Descartes’ er mulig altfor gammeldags, men det er ingen tvil om at vår menneskelige bevissthet hvertfall må fremspringe på en kvalitativ annen måte enn hos kunstige vesener. Vår evne til selvbevissthet er et resultat av en unik utvikling, som selv ikke de mest raffinerte algoritmer kan simulere.

AI sin mørke side

Det er sterk konsensus om at vi kan lære mye om hvordan vår egen hjerne fungerer ved å undersøke AI-maskiner med ʺalgoritmiske sinnʺ, men kanskje bør vi bekymre oss for hva disse sinnene kan lære om oss.

Selv om AI-forskning skal være fordelaktig for menneskeheten (og det er den per dags dato, på en rekke områder) – hvordan skal vi sørge for at AI-maskinenes fremskritt utelukkende er under vår egen kontroll? Og bør vi egentlig være så iherdige med utviklingen av stadig mer intelligente systemer? Advarslene florerer, med god grunn.

P. Gounder, analytiker i Forrester, frykter at fremtidens arbeidere trolig må okkupere posisjoner som krever mer kognitivt komplekse oppgaver som en maskin ikke er i stand til. Men slike posisjoner krever også høyere utdanning, og det er sannsynlig at vi kan vente oss et dundrende kappløp mellom utdanning og teknologi der vi selv ikke har kontroll over hvem som vinner. Markedsmessige og militære incentiver vil også styre kappløpet.

Enkelte frykter vi kommer til å devaluere menneskeheten dersom vi kun anser hjernen og menneskesinnet som et informasjonsprosesserende dataprogram. Ta begrepene “sunn fornuft og “moral”; grunnleggende intuisjoner om rett og galt. En datamaskin vil vel aldri kunne lære det? Men tenk om en robot programmert til rasjonell tenkning, kommer frem den logiske slutningen om at menneskeheten må beskyttes fra seg selv fordi vi er så onde mot hverandre. Hva skjer da?

Stuart Russell, en AI-pioneer, er bekymret for realiteten av teknologisk singularitet: en eksponentiell og dramatisk økning i intelligens og teknologi, som følge av hyperintelligente AI-systemer som aldri slutter å re-programmere seg til det stadig ʺbedreʺ. Sist, men ikke minst, er eksperter også bekymret for den såkalte ‘AI-effekten’ – konsekvensene av at ekte intelligens er det vi anser som intelligent atferd mennesker kan utføre, men som maskiner ikke kan utføre. Således, vil AI alltid komme til å være det som ennå ikke har blitt gjort.

Referanser

[1] Turing, A. M. (1950). Computing machinery and intelligence. Mind, 433-460.

[2] Warwick, K. (2010). Implications and consequences of robots with biological brains. Ethics of Information Technology, 12, 223-234.

Dette innlegget er 9 år gammelt. Informasjon i innlegget kan være utdatert.