Forskarar frå selskapet OpenAI kom for nokre dagar sidan med ein rapport som ikkje var så fordelaktig for deira eige produkt. Den slo fast at store språkmodellar som ChatGPT kjem til å ta feil i all framtid. Når du spør Chat om noko, hender det jamleg at den kjem med eit svar som er presentert med stor sjølvsikkerheit, men som er heilt feil. Modellane har likevel blitt mykje betre dei siste par åra, og graden av slike hallusinasjonar har gått jamt nedover. Det forskarane no slår fast, er at vi ikkje kan håpe at det held fram for alltid. Slike hallusinasjonar er nemleg ein ibuande del av desse språkmodellane, og ingen datakraft i verda vil kunne få dei til å forsvinne heilt.
Du må være abonnent for å lese denne artikkelen
Allerede abonnent? Logg inn