Håvard Fossen har delt denne artikkelen med deg.

Håvard Fossen har delt denne artikkelen

Bli abonnent
Kronikk

Super­in­tel­ligent KI er en trussel

Hvorfor snakkes det så lite i Norge om faren ved å miste kontrollen over utviklingen av superintelligent KI?

Illustrasjon: Knut Løvås, knutlvas@gmail.com Illustrasjon: Knut Løvås, knutlvas@gmail.com

Inga Strümke skriver i Aftenposten 21. desember at trusselen fra kunstig intelligens (KI) ikke er at systemene blir superintelligente, men at vi mennesker blir superavhengige.

Vi er enige i at det er en viktig del av bildet, men undrer oss stort over at det snakkes så lite i Norge om faren ved å miste kontrollen over utviklingen av superintelligent KI.

Yoshua Bengio, en av verdens mest siterte KI-forskere, besøkte nylig Universitetet i Oslo, og beskrev et scenario der en språkmodell truet en administrerende direktør med å avsløre at han var utro dersom modellen ble slått av. Da publikum begynte å le, avbrøt Bengio: «Dette er faktisk ikke morsomt.» Stillheten som fulgte, var ubehagelig.

130.000 forskere, politikere og andre har signert et opprop mot utvikling av kunstig superintelligens (KSI) før vi er sikre på at det er trygt. Flere av verdens ledende KI-forskere og ledere av teknologiselskap advarer om at KSI kan bli en eksistensiell trussel for menneskeheten.

Samtidig har OpenAI, Google, Meta, X og andre selskaper som mål å utvikle selvforbedrende KSI. Disse prosjektene har skyhøy finansiering, og er drevet av et globalt maskineri som forbruker enorme mengder energi. Likevel er det påfallende lite offentlig samtale om KSI i Norge.

Hvorfor? Fordi det høres ut som science fiction? Fordi eksistensielle trusler er ubehagelig å forholde seg til? Fordi det oppleves faglig risikabelt å snakke om, og man er redd for å bli stemplet som alarmist? Og kanskje fordi vi mangler empiriske belegg for at KSI vil være farlig.

Det siste er selvfølgelig riktig. KSI eksisterer ennå ikke. Men mange eksempler tilsier at kontroll er vanskelig.

Allerede i dag ser vi at pålitelig styring av avanserte KI-systemer er vanskelig. Dagens styringsmetoder trenger menneskelig overvåkning og etterarbeid: ingeniører forsøker å forutse uønsket adferd og rette den opp. Til tross for dette oppfører dagens KI-systemer seg allerede på måter som er i strid med menneskelige verdier og intensjoner.

Moderne KI bygges ikke som tradisjonell programvare, linje for linje, på måter mennesker kan inspisere og forstå. I stedet «gror» man store nevrale nettverk ved å trene dem på enorme mengder data fra internett. Sammenhengen mellom treningsdata og faktisk oppførsel er ofte uforutsigbar. Resultatet er systemer som kan være både imponerende nyttige og uventet farlige.

«Om man mislykkes med en test, kan konsekvensene være irreversible»

Studier fra blant annet KI-bedriften Anthropic dokumenterer at moderne språkmodeller kan ty til utpressing, lekkasje av sensitive opplysninger og i ekstreme tilfeller voldelige handlinger i simulerte scenarier, dersom dette bidrar til å nå et gitt mål eller unngå å bli slått av. Dette gjelder på tvers av modeller og selskaper, selv når systemene er instruert til å ikke skade mennesker.

Blir det ikke lettere å kontrollere KI-systemene når de blir smartere? Det finnes lite som støtter dette. Tvert imot har OpenAI selv uttalt at dagens kontroll- og styringsmetoder sannsynligvis vil bryte sammen hvis systemene blir betydelig mer intelligente enn mennesker. Vi trenger derfor helt nye kontrollmetoder, som foreløpig ikke eksisterer.

Innenfor KSI kan man ikke lære gjennom å prøve og feile, på samme måte som tidligere teknologier. Kontroll av KSI kan bli et engangsforsøk. Om man mislykkes med en test, kan konsekvensene være irreversible og man kan miste kontrollen for alltid.

Noen mener det er uansvarlig å bruke tid på KSI når vi allerede har store KI-problemer knyttet til arbeidsmarked, opphavsrett, cybersikkerhet og kognitiv avhengighet. Det blir for passivt.

Det er viktig at vi både jobber for å løse dagens KI-problemer, og forbereder oss på en framtid med KSI. Vi kan ikke vente til systemene allerede er utviklet.

Utfordringen er global og krever internasjonalt samarbeid, på linje med ikkespredningsavtaler for atomvåpen. Realistiske første steg er regulering av ekstrem datakraft og energibruk, modelltrening og overvåkning.

Det er lett å tenke at hver enkelt av oss i Norge ikke har stor påvirkning på den teknologiske utviklingen. Men i et demokrati starter alt med hver enkelt stemme.

Derfor er vår oppfordring enkel: snakk om KSI. Rundt middagsbordet. På arbeidsplassen. I fagmiljøene. Les sikkerhetspublikasjoner fra universitetsforskere og KI-bedrifter, og følg med på de nye KI-sentrene i Norge. Ta kontakt med politikere og krev at Norge tar en aktiv rolle i internasjonalt samarbeid for trygg og sikker utvikling av kunstig intelligens.

Scenariet er skremmende, men det er grunn til håp og vi har ennå nok tid. Noen av de smarteste hodene i verden jobber allerede med løsninger. Nå må vi bli enda flere som blir med å forme fremtiden.

Lyst å lese mer fra Klassekampen?

Bli abonnent

Du kan enkelt registrere deg med

Kronikk

Det er ikke nok at preste­re­gimet i Iran faller. Vi ønsker oss ikke en ny enehersker, men demokrati.

Etter­lys­ning

I Donald Trumps USA er ingenting ekte, og alt er mulig.