ChatGPT kan hallusinere – og gjør det i opp mot 20 prosent av tilfellene, sier fagfolk.

Intelligens på speed

KREATIV: Når ChatGPT ikke vet svaret, dikter den opp fakta. Foto: Richard Drew, AP/NTB

Etter å ha satt databransjen, skoleverk og akademia i sjokk eller eufori, har kunstig-intelligens-modellen GhatGPT begynt å vise at dens intelligens ikke bare er begrenset, men faktisk helt upålitelig. Når den ikke vet svaret, dikter den opp fakta, den hallusinerer. Dette ordet er i denne sammenhengen faktisk en dataterm, som forklarer måten den jobber på: Basert på en mengde input, som kan være falsk eller reell, koker den opp det den finner er den beste statistiske løsningen. Dermed kan den for eksempel fantasere hvordan det gikk i Super-Bowl-­finalen eller fortelle hvem som har verdensrekord i å spasere – til fots – over Den Engelske Kanal. Fagfolk innen kunstig intelligens sier den typisk hallusinerer i opp mot 20 prosent av tilfellene. Den kan dikte opp artikler som ikke finnes, som biologen Anders Goksøyr fant ut da han ba den finne noen referanser. Og NB: Dette er ikke en «nybegynnerfeil», som ofte forekommer når nye produkter lanseres, det er en følge av måten den jobber på: ikke logisk, men statistisk.

Viten