Dagboka

Kjensler

I eit fjernsynsintervju som ligg ute på internett, seier ein journalist til Olav H. Hauge at dikta hans ikkje er så sentimentale. Det er meint som eit kompliment, men Hauge vil ikkje ha det. Å vere sentimental tyder å vere kjenslefull, og Hauge svarar at viss vi ikkje er det, så er vi ikkje menneske.

Du må være abonnent for å lese denne artikkelen

Dagboka

ChatGPT

Tromsø kommune dummet seg kraftig ut da de søkte AI-råd om skolenedleggelse. Den kunstige intelligensen la ned 5–6 skoler og foreslo en håpløs ny struktur. Dette ble sammenfattet i en kommunal rapport, med kildehenvisning til faglige rapporter som ikke er skrevet og forskning som ikke har funnet sted. Da den politiske behandling startet, slo lokalavisa Tromsø alarm, og det ble avslørt omfattende tillit til digitale råd som var uten sammenheng med virkeligheten. Det ble en skandale. Noen måtte ta ansvar med medfølgende konsekvenser. Fortsatt pågår det runder med unnskyldning og skadeopprettelse.

Rasisme

Skal man snakke med barn om rasistisk motivert terror? Det er et spørsmål jeg har tenkt på helt siden drapet på Tamima Nibras Juhar. Den 31. august samlet hele Oslo seg for å hedre Tamima, og for å ta avstand fra rasisme og terror. Den perioden var det flere venner som syntes det var vanskelig å snakke med barna sine om det som hadde skjedd. Noen valgte å la være. De vil beskytte de yngste mot brutaliteten. Men tar barn skade av å bli fortalt om det som har skjedd i byen de bor i? Jeg har ikke barn, og jeg vet ikke hvordan jeg selv hadde reagert. I tillegg har jeg vokst opp med krig, rasisme og vold, og har egentlig aldri kunnet bli skjermet mot det brutale.

Kunstig

Forskarar frå selskapet OpenAI kom for nokre dagar sidan med ein rapport som ikkje var så fordelaktig for deira eige produkt. Den slo fast at store språkmodellar som ChatGPT kjem til å ta feil i all framtid. Når du spør Chat om noko, hender det jamleg at den kjem med eit svar som er presentert med stor sjølvsikkerheit, men som er heilt feil. Modellane har likevel blitt mykje betre dei siste par åra, og graden av slike hallusinasjonar har gått jamt nedover. Det forskarane no slår fast, er at vi ikkje kan håpe at det held fram for alltid. Slike hallusinasjonar er nemleg ein ibuande del av desse språkmodellane, og ingen datakraft i verda vil kunne få dei til å forsvinne heilt. Den innsikta har store konsekvensar for kva vi kan bruke denne forma for kunstig intelligens til, og kva slags jobbar som står i fare for å forsvinne.