Så godt som alle lærere og forelesere i verden har det siste året eller to spurt seg selv om hvordan man kan se forskjell på besvarelser studentene har sugd av eget bryst, og de som er generert av en språkmodell som Chat GPT.
Nå viser det seg at Open AI omtrent like lenge har hatt en intern debatt om akkurat det samme, skriver Tek.no.
Wall Street Journal (WSJ) skriver at selskapet har hatt en løsning klar til lansering i omkring ett år allerede, men skal ikke ha gjort det ennå, av frykt for å støte fra seg brukere.
Ifølge en av WSJs kilder skal verktøyet enkelt kunne lanseres «med et tastetrykk».
99,9 prosent nøyaktig
Systemet skal baseres på at løsningens svar justeres på nesten umerkelig vis for sluttbrukeren, men i et mønster som kan fungere som et vannmerke. Dette vannmerket skal da kunne oppfattes av programvare som analyserer teksten senere, angivelig med en nøyaktighet på 99,9 prosent.
Ansatte skal imidlertid ha vært bekymret for at løsningen enkelt kan omgås, for eksempel ved å automatisk oversette svaret til et annet språk, og deretter tilbake til originalspråket.
Det skal også være bekymringer rundt utrullingen av løsningen. Hvis for mange har tilgang til den, kan det bli for enkelt å oppdage nøyaktig hvordan den virker, og utvikle et mottrekk. samtidig er løsningen avhengig av en viss bredde i utrullingen for å i det hele tatt være nyttig.
Begrenset utrulling?
En talsperson for Open AI uttaler at selskapet er redd for at løsningen kan slå ut mer negativt for brukere av andre språk enn engelsk, og at de derfor forsker på alternativer. Ifølge WSJ skal det være intern uenighet om hvorvidt dette veier opp for de potensielle fordelene et slikt system vil ha.
En mulig løsning på dilemmaet kan være å kun gjøre programvaren som oppdager KI-generert innhold tilgjengelig for universiteter og læreinstitusjoner, samt andre som tilbyr plagiatsjekk av akademisk innhold.