Google laver en “Kill-Switch” til kunstig intelligens

Google arbejder på at udvikle en kill-switch til deres kunstige intelligens-system DeepMind som en sikkerhedsforanstaltning mod ondsindet udvikling.

Google laver en “Kill-Switch” til kunstig intelligens

Googles kunstige intelligens-selskab, DeepMind, kom rigtig frem i medierne, da deres AlphaGo AI slog verdensmesteren i Go, Lee Sedol. Men DeepMind kan så meget mere end at slå mennesker i skak, Go eller hvilket spil, det nu skal være.

AI-algoritmerne er skabt til noget langt større, nemlig at ”finde ud af intelligens”. Dette ved at skabe en allround AI, der kan bruges som en vært for applikationer og egentlig selv lære at lære.

Se også: Test af de smarteste mobiltelefoner

 

Hvad hvis kunstig intelligens bliver ond?

Det rejser selvfølgelig en del bekymringer – hvad gør vi, hvis AI’en bliver ødelagt, hvis den får en virus, eller hvis den bliver ondsindet?

DeepMind har i samarbejde med Oxford Universitys Future og Humanity Institute lavet en rapport, hvori forskere skriver, at AI-systemer ”formentlig ikke vil opføre sig optimalt hele tiden”, og at en menneskelig operatør kan finde det nødvendigt at ”trykke på en stor rød knap” for at forhindre et sådant system i at gøre skade. Altså en art ”kill-switch”.

Se også: Flere internet of things-enheder end mobiler i 2018

Hvad er DeepMind?

DeepMind er mere end skæg og ballade, slår medstifter Mustafa Suleyman fast overfor Futurism. Det er, som tidligere nævnt en generel kunstig intelligens, hvilket betyder, at den lærer at løse opgaver fra input, men uden at være programmeret til det i forvejen, hvorimod AI lærer specifikke opgaver, som de er skabt til. Han beskriver deres systemer som agenter –  lige som de onde AI’er i The Matrix bliver kaldt, som Futurism tørt konstaterer.

Det fører så til en bekymring om, hvorvidt en AI lære sig vej gennem en sikkerhedsforanstaltning som en off-knap, altså udvikle sig udover vores indbyggede sikkerhed. Rapporten fra DeepMind og Oxford Universitys Future og Humanity Institute, har titlen ”Safety Interruptible Agents”, uddyber en metode, der skal forhindre en agent i at arbejde sig udenom den store røde knap.

DeepMind kunne i 2012 kunne gennemgå omkring en million billeder, når den skulle genkende billeder, med en fejlmargin på 16 procent.

Sidste år var den margin nede på 5,5 procent gorbedringer som denne gør, at det er nødvendigt også at øge sikkerheden i tilfælde af, at menneskelige operatører er nødt til at få kontrol over en robot, der ikke gør, som den skal, og som kan føre til uigenkaldelige konsekvenser.

Se også: Nyheder om kunstig intelligens

Kilde