Wikimedia, utgiveren av nettleksikonet Wikipedia, kunngjorde denne uken at stiftelsen nå tilbyr Wikipedia-redaktørene et nytt verktøy for å kunne oppdage det som omtales som skadelige redigeringer eller vandalisme blant de rundt 500 000 redigeringene som daglig gjøres i leksikonet.
Kunstig intelligens
Det dreier seg om en tjeneste som tar i bruk kunstig intelligens for avsløre slike uønskede redigeringer. Tjenesten skal også kunne vurdere den generelle kvaliteten til enhver Wikipedia-artikkel.
Wikimedia skriver at tjenesten, Objective Revision Evaluation Service (ORES), skal fungere som et par røntgenbriller, som skal gjøre det enklere å se potensielt skadelige redigeringer i den enorme strømmen av endringer som gjøres.
Systemet trenes opp til å vurdere artikler og artikkelredigeringer opp mot kvalitetsvurderinger gjort av wikipedianere. Ut fra dette genereres det poengsummer for både artikler og redigeringer, samt en sannsynlighetsverdi for at det dreier seg om en skadelig redigering.
Mediantiden for hver av vurderingene ligger på mellom 50 og 100 millisekunder, avhengig av om artikkelen har blitt vurdert tidligere eller ikke.
Mest for de små wikiene
Det opplyses av Wikimedia at gode verktøy for kvalitetskontroll allerede finnes til de store Wikipedia-utgavene, som engelsk og tysk. Verre er det med de små.
I første omgang støtter ORES 14 ulike Wikipedia-utgaver. Ingen av de nordiske er blant disse, men det Wikimedia oppgir at det jobbes med å implementere støtte for flere utgaver så raskt som mulig.
Et annet område det fortsatt jobbes med, er en modell som automatisk kan kategorisere redigeringer etter hva som har blitt gjort. Eksempler på dette er oversettelse, redesign, kvalitetsforbedring, klassifisering eller inkludering av bilder eller lyd.
Et tredje område er å utvikle strategier i modellene for å oppdage partiskhet i bidragene.
Både ORES og alle Wikipedia-spesifikke modeller og komponenter er utgitt som åpen kildekode. Flere detaljer om ORES finnes i dette blogginnlegget.