Håkon Rian Ueland har delt denne artikkelen med deg.

Inga Strümke etterspør trafikkregler for kunstig intelligens. Hun frykter at store kommersielle aktører vil styre utviklingen.

Et kappløp uten regler

For regulering: Inga Strümke er partikkelfysikker og forsker på kunstig intelligens ved NTNU. Selv om teknologien byr på fantastiske muligheter, mener hun det er essensielt at den utvikles i tråd med tydelige reguleringer.

I filmen «The Terminator» (1984) har et forsvarssystem bygget på kunstig intelligens (KI) blitt den ultimate dommedagsmaskinen. Maskinene har i en nær framtid utviklet selvbevissthet, tatt over styringen på jorda og startet en atomkrig for å utrydde menneskeheten.

Børst støvet av VHS-kassetten. Spol fram til 2023. Og scenarioet virker plutselig ikke så utenkelig lenger. Forrige uke sa «gudfaren» innen KI, Goeffrey Hinton (75), opp jobben i Google. Hinton la med sin forskning på såkalte nevrale nettverk grunnlaget for datateknologien vi finner i dagens samtaleroboter og andre KI-systemer.

Nå advarer han i et intervju med The New York Times mot en utvikling hvor maskinene får utvikle seg for raskt og ukontrollert. I verste fall vil KI i framtida kunne true menneskeheten. Personer med onde hensikter kan skape selvdrevne og selvutviklende ødeleggelsesroboter.

Hvor bekymret har vi grunn til å være?

Maskiner uten hensikter

– Hvis vi forstår han riktig, så bør vi ta det veldig alvorlig. Hvis vi forstår han feil, som de aller fleste gjør, så bør vi roe oss helt ned, sier Inga Strümke, forfatter av boka «Maskiner som tenker» til Klassekampen.

Strümke har doktorgrad i partikkelfysikk og forsker på kunstig intelligens ved NTNU i Trondheim. Med «Maskiner som tenker» har forskeren tatt på seg oppgaven med å forklare hvordan teknologien bak chatbotene og bildegeneratorene vi leser om i nyhetene hver uke, fungerer. Boka har den siste uka klatra til topps på bestselgerlistene. Interessen, og ikke minst behovet, for å forstå hvordan kunstig intelligens fungerer, er plutselig blitt enorm.

– De som ser for seg at maskinene selv har hensikter, bør kule egget og gå og ta seg en kaffe, sier Strümke.

Men, det finnes et men:

Hvis vil tolker Hinton slik jeg tror han vil bli tolket, er det grunn til å være bekymret. På den ene sida åpner KI for mange fantastiske muligheter. Men det som ikke så heldig, er hvis det er store kommersielle aktører som driver utviklingen, og den primære drivkrafta handler om konkurranse.

KI-kappløp

Etter at selskapet Open AI lanserte samtaleroboten Chat GPT i november i fjor har utviklingen innen kunstig intelligens akselerert. Økonomer og medier snakker om et KI-kappløp mellom teknologigigantene i Silicon Valley. I slutten av mars skrev over 1000 ledende teknologer, forskere og næringslivsledere under på et åpent brev, der de ber om å sette utviklingen av nye og enda kraftigere samtaleroboter på pause i minst seks måneder.

Pausen er nødvendig for å utvikle retningslinjer som kan sikre at KI-systemene ikke vil utgjøre en fare, mener ekspertene. Dersom KI-selskapene ikke trekker i bremsen, ber de myndighetene verden over om å gripe inn.

Strümke tviler på at en seks måneders «timeout» er veien å gå. Langt viktigere er det å få på plass tydeligere reguleringer av KI-teknologien. Og det må helst skje raskt.

– Dette er ikke det samme som at en forelder skal komme inn å bestemme. Poenget er at vi trenger tydelige spilleregler som er like for alle, sier Strümke.

I boka trekker hun en parallell til hvordan biltrafikken i storbyer ikke hadde fungert uten tydelige trafikkregler. Men hvordan går man fram for å regulere en teknologi som utvikler seg så raskt at selv eksperter sliter med å henge med?

Utfordrer jussen …

Samtaleroboter som Chat GPT bygger på såkalt maskinlæring. Modellene er trent opp på store datasett og bruker statistiske metoder for å finne mønstre i store datamengder. Strümke trekker fram tre utfordringer i arbeidet med å regulere dem:

  • Med modellene vil det utvikles nye kapabiliteter, altså nye evner og anvendelser, som det er vanskelig å forutse. Strümke viser her til diskusjonen rundt opphavsrett som har dukket opp etter at bildegeneratorer som Dall-E lager nye bilder med utgangspunkt i eksisterende kunstverk.

«Det er grunn til å være bekymret.»

Inga Strümke, forfatter og forsker
  • Modellene fores med data som ikke er beskyttet av personvernet. Dermed vil man også kunne hente ut intim informasjon om personer som kan brukes målrettet innenfor alt fra annonsering til overvåking.
  • Mange av våre grunnleggende rettsprinsipper kan bli utfordret. Strümke trekker fram spørsmål om opphavsrett og aktørskap, men også prinsipper som handler om rettferdighet og diskriminering. Med avanserte KI-modeller vil man måtte forholde seg til stadig nye mikrobeslutninger, for eksempel om hvilket innhold som skal presenteres på sosiale medier, som ikke er omfattet av dagens lovverk.

… og juridisk praksis

– Juridisk praksis og metode som har fungert strålende for oss i mange år, har vi ikke tid til å belage oss på nå. Det kan hende at folk som skriker etter regulering, ikke tar innover seg at det mangler en kongstanke, sier Strümke og legger til:

– I første omgang tenker jeg vi er nødt til å sette oss ned og trekke noen røde linjer. Så kan man i hvert fall ta diskusjonen i en konstruktiv retning.

I Europa er arbeidet med et felles rammeverk i gang. Forrige uke la EU-kommisjon fram et lovforslag som tar sikte på å regulere alle KI-systemer som brukes i EU, både av private aktører og myndigheter.

– Jeg vil ikke sparke opp noen ny EU-debatt. Men når det kommer til regulering av teknologi, hadde vi ikke hatt nubbesjanse uten EU. Samtidig skal vi være vare for lobbyvirksomheten som foregår i Brussel. Teknologlobbyen der overgår alle andre sektorer, sier Strümke.

Politikernes lodd

Selv om tek-selskapene – i et dommedags scenario – sitter på teknologien til å utvikle kyniske dødsroboter med enorme bicepser, er Strümke tydelig på at det er de folkevalgte i et demokrati som til syvende og sist må ta ansvar for å få på plass fornuftige reguleringer.

– Ingen lovgiver kommer til å sette seg ned og finne opp en løsning på dette hvis det ikke kommer en «call to action».