Google jobber hardt med å hevde seg i konkurransen mot selskaper som Open AI og Microsoft på KI-feltet, og noen ganger kan det gå litt vel fort i svingene. Nylig lanserte Google en ny bildegenerator til sin Chat GPT-rival Gemini, og det gikk ikke helt som håpet for selskapet.
Folk som brukte generatoren til å lage historiske illustrasjonsbilder, oppdaget blant annet at generatoren presterte å konstruere fargede personer i nazi-uniformer – noe som ble gjenstand for betydelig latterliggjøring på sosiale medier.
Forklarer tabben
Som en konsekvens satte Google bildegeneratoren sin på pause, og på sin blogg har Google nå offisielt innrømmet tabben og lagt ut en forklaring på akkurat hva som gikk galt.
Ifølge Google var intensjonen å lage en bildegenerator som representerte etnisk mangfold. Selskapet innrømmer imidlertid at generatoren endte opp å gå for langt, i en slik grad at også tekstinstrukser som inneholdt en spesifisert kontekst, sendte generatoren i helt feil retning.
– Så hva gikk galt? Kort fortalt: to ting. Justeringene vi foretok for å sikre at Gemini viser et mangfold av personer, tok ikke høyde for tilfeller som åpenbart ikke skal vise mangfold. For det andre ble modellen over tid mye mer forsiktig enn det som var meningen og nektet å svare på bestemte instrukser ved å feilaktig tolke nøytrale tekstinstrukser som sensitive, skriver Google.
– Disse to tingene førte til at modellen overkompenserte i noen tilfeller og var over-konservativ i andre tilfeller, noe som resulterte i bilder som var pinlige og feil.
Skal gjennom omfattende testing
Selskapet innrømmer at dette slett ikke var intensjonen og at meningen aldri var at Gemini skulle nekte å lage bilder av bestemte grupper eller historisk ukorrekte bilder.
Ifølge Google jobbes det nå med «betydelige» forbedringer av Geminis bildegenerator, og den vil ikke aktiveres igjen før dette arbeidet er ferdig og modellen har gjennomgått omfattende testing. Akkurat når dette vil skje, er ennå uvisst.
Google sier at såkalte «hallusinasjoner» er et kjent fenomen når det gjelder KI-modeller generelt, og selskapet sier de ikke kan garantere at Gemini ikke vil generere støtende, unøyaktige eller pinlige feil også i fremtiden.
Googles KI-modell er ikke den eneste som har slitt med feil og unøyaktigheter, da dette er et fenomen som også rammer konkurrentene. Brukere har blant annet tidligere klaget på kvalitetsmessige skavanker med Chat GPT, og anklaget snakkeroboten for å ha blitt «latere og dummere» – noe Open AI selv har innrømmet.