ChatGPT kan hallusinere i 20 prosent av tilfellene
ChatGPT bebygger å vise at dens intelligens ikke bare er begrenset, men faktisk helt upålitelig. Når den ikke vet svaret, dikter den opp fakta, den hallusinerer. Her er ordet en dataterm, som forklarer måten den jobber på: Basert på en mengde input, som kan være falsk eller reell, koker den opp det den finner er den beste statistiske løsningen. Fagfolk innen kunstig intelligens sier den typisk hallusinerer i opp mot 20 prosent av tilfellene. Den jobber ikke logisk, men statistisk.