ChatGPT-hallusinasjoner kan hindre suksess
OpenAI tror de kan løse problemet, mens maskinlærings-pionerer som Yann LeCun er mer skeptiske. Hallusinasjonene handler om at ChatGPT finner på ting og presenterer dem som fakta, noe som betyr at du ikke kan stole på hva maskinen forteller deg. OpenAIs sjefsforsker Ilya Sutskever sier han er sikker på at problemet vil forsvinne når språkmodellen har lært å forankre svarene i virkeligheten.