Det tok mindre enn to dager fra den opprinnelige «Stop the Steal»-gruppen ble startet på Facebook etter USAs presidentvalg i november, til Facebook stengte gruppen på grunn av innholdet i meldingene som ble postet der.
Facebook klarte imidlertid ikke å fange opp at bevegelsen fortsatte aktiviteten og økte i omfang andre steder på Facebook i to måneder, fram til stormingen av Capitol Hill 6. januar i år.
Wikipedia-gründer Jimmy Wales sa tidligere i år at Facebook og Twitter hadde sviktet i håndteringen av Trumps grunnløse påstander om valgfusk. Nå slår også en intern Facebook-rapport fast at selskapet må få på plass nye metoder og verktøy for å hindre at koordinert desinformasjon som den «Stop the Steal»-kampanjen og Patriot Party spredte etter presidentvalget, skjer igjen, skriver nettstedet Buzzfeed.
Nettstedet gjengir hele rapport-teksten etter at den er blitt gjort utilgjengelig for Facebook-ansatte flest, som en stund kunne lese den på interne diskusjonsfora.
Digitaliseringsstrategien 2030: Det grønne skiftet og datasentre bør være første prioritet
Mange «Stop the steal»-avleggere
Facebook-rapporten viser at mens selskapet hadde tatt grep for å stoppe det de kaller «ikkeautentisk adferd», for eksempel spredning av desinformasjon fra falske kontoer drevet av russisk etterretning, så var de tilsynelatende uforberedt på «koordinert autentisk skadelig adferd», blant annet ved at enkeltpersoner brukte sine personlige Facebook-kontoer til å spre desinformasjon og oppfordre til vold.
Den opprinnelige «Stop the Steal»-gruppen ble opprettet i løpet av valgnatten 3. november, og la blant annet ut ubegrunnede meldinger om at det foregikk så mye valgfusk at det kunne påvirke valgresultatet. Gruppen hadde 320.000 medlemmer mens rundt en million ventet på å bli medlemmer, da Facebook stengte gruppen 5. november.
Men verken det høye medlemstallet eller de mange hatefulle, voldelige og hetsende meldingene som ble postet i gruppa utløste den store Facebook-alarmen. Ifølge rapporten gjorde ikke de tidligste signalene det klart for Facebook at det foregikk en koordinert aktivitet som burde vært definert som skadelig.
Ettersom Stop the Steal unnslapp denne definisjonen, poppet det raskt opp en rekke avleggere etter at den opprinnelige gruppen var blitt stengt. Selv i dagene etter stormingen av Capitol Hill var 66 slike grupper aktive på Facebook.
Facebook-partner: Lytter til samtaler i nærheten av smarttelefoner
Super-inviterere skapte vekst
Facebook-rapporten forklarer litt om hvordan disse avleggerne fikk blomstre på Facebook, selv om modergruppen ble stengt.
En av årsakene var svært aktive såkalt super-inviterere. Facebook har identifisert 137 kontoer som sendte ut mer enn 500 invitasjoner hver til å delta i forskjellige «Stop the Steal»-avleggere. Mange av disse kontoene ser ut til å ha koordinert virksomheten sin både på Facebook og andre steder.
For eksempel ble slagord lansert på folkemøter, eller i innslag på tradisjonelle medier, og spredt via store Facebook-grupper som «Women4Trump» og «Latinos for Trump», og videre til floraen av «Stop the Steal»-grupper.
Rapporten forteller også om teknikker som ble brukt for å unngå å bli rammet av Facebooks moderering. For eksempel nevnes det at en av de mest profilerte i «Stop the Steal»-bevegelsen, den relativt kjente SoMe-personligheten Ali Alexander, unngikk moderering ved å bruke Facebook Stories, som forsvinner etter 24 timer, kombinert med en nøye utvalgt ordbruk som skulle unngå at modereringsalgoritmer reagerte på triggerord.
Facebooks undersøkelser har imidlertid vist at det var 48 ganger så stor sjanse for å finne mer enn fem innholdsbolker med hets eller vold i grupper tilknyttet Stop the Steal-bevegelsen enn i andre Facebook-grupper, og 12 ganger så stor sjanse for å finne mer enn fem bolker med hatefullt innhold.
Microsoft: Angrep fra utpressingsvirus øker sterkt – men det er én positiv trend
– Facebook trenger nye verktøy
– Så grundige undersøkelser som vi har gjort her krever tid, situasjonsbestemt kunnskap og bakgrunnskunnskap som vi ikke alltid har, påpeker rapportforfatteren og spør:
- Hvilke adferdssignaler kan vi utnytte for å oppdage koordinert aktivitet når vi mangler tiden og bakgrunnskunnskapen som trengs for å gjennomføre grundige undersøkelser?
- Hvilke analysemetoder og modeller kan vi lage for bedre å identifisere disse nettverkene i fremtiden?
Rapporten konkluderer med at Facebook ble løpende etter enkeltgrupper og -kontoer på plattformen etter at desinformasjonen rundt presidentvalget startet, og at fokuset på individuelle ytringer gjorde at man ikke oppdaget at de mange individuelle ytringene var en del av en koordinert bevegelse for å spre konspirasjonsteorier om valgresultatet.
De individuelle ytringene ble heller ikke alltid vurdert som skadelige nok i seg selv til å bli fjernet, men rapporten konkluderer med at den koordinerte virksomheten må regnes inn under Facebooks betegnelse av skadelig, og at Facebook bør utvikle nye definisjoner og verktøy for å identifisere og stanse slik uønsket, koordinert adferd.
Suksess for norsk KI-film