Språkmodeller som ChatGPT har et problem: De forstår ikke sant vs. usant. Om du får et korrekt svar fra en språkmodell og hevder at dette ikke stemmer, vil modellen gjerne gi deg rett og be deg om unnskyldning. Dette kommer av at slike KI-modeller ikke forstår skillet mellom sant og usant, ifølge forskerne ved Ohio State University. I mellom 22 og 70 prosent av tilfellene lar modellene seg villede. Dette ble presentert på en KI-konferanse i Singapore nylig.