Google og de fleste av de andre søketjenestene på nettet lar deg søke etter bilder. Men i svært liten grad er det informasjonen i bildene som bestemmer hva slags resultater søket gir. I stedet baseres søket ofte på omgivelsene til bildet, altså innholdet på websider bildet benyttes, for eksempel bildetekster og navnet på filen. Dette gir ofte svært upresise resultater.
I forrige uke under International World Wide Web Conference i Beijing presenterte to forskere fra Google en programvareteknologi som skal kunne gi langt mer nøyaktige bildesøk. Teknologi, som kalles VisualRank, er en algoritme som forener metoder for bildegjenkjenning med teknikker for vekting og rangering av bilder som ser mest like ut. Dette skriver New York Times.
VisualRank skal dermed kunne gjøre det samme for bildesøk som det Googles opprinnelige PageRank har gjort ved søk etter websider.
Forskerne, Shumeet Baluja og Yushi Jing, har publisert en rapport, «PageRank for Product Image Search», som er gjort tilgjengelig her. Der fokuserer de på et delsett av alle bildene Google har i katalogen, for det ville kreve enorme mengder regnekraft for å analysere og sammenligne alle bildene Google har registrert.
I stedet har forskerne konsentrert seg om de 2000 mest populære produktforespørslene i Googles Product Search (tidligere kjent som Froogle). Fra hvert av søkene har Google plukket ut de ti første bildene i søkeresultatene, både fra rangeringssystemet og den vanlige Google Image Search. 150 Google-ansatte har deretter laget et poengsystem for bildenes relevans. Rangeringssystemet skal ha returnert 83 prosent færre irrelevante bilder.
Årsaken til at dagens bildesøk er laget slik de er, skyldes for en stor del at tekstbaserte søk er noe man har oppnådd gode resultater med, samtidig som at man i liten grad har løst et fundamentalt problem knyttet til bildeanalyse, nemlig automatisk detektering av objekter som kan gjenkjennes av mennesker.
Man har til en viss grad lykkes med enkelte typer objekter, for eksempel ansikter og høyst strukturerte objekter som CD-omslag, men problemet med generell oppdagelse og gjenkjennelse av objekter er fortsatt uløst.
Det tredje problemet er det nevnte behovet for regnekraft. Ikke bare øker de signalprosesserende algoritmene kompleksiteten, men den stadig økende gjennomsnittsstørrelsen på bildene gjør at ellers enkle oppgaven med å overføre og analysere store datamengder både vanskelig og regnekraftkrevende.
Detaljene om Google VisualRank-algoritmer kan leses i rapporten, men i rangeringen tas det blant annet i bruk et diagram over likheten mellom bildene, altså egenskaper bildene har felles. De bildene som har de samme egenskapene som mange andre bilder i resultatmengden, gis høyere rangering.
Likhetsdiagram generert for de 1000 beste søkeresultatene etter "Mona-Lisa". De to største bildene har den høyeste rangeringen.
Lite tyder på at Google vil ta i bruk VisualRank i offentlig tilgjengelige tjenester med det første. Til det er behovet for regnekraft for stort.
- Jeg mener det de forsøker å oppnå, i stor grad er umulig, sier Munjal Shah, daglig leder for Riya, til New York Times. Riya er et selskap som tilbyr en lignende teknologi gjennom tjenesten Like.com, hvor brukerne kan sammenligne produkter med tilsvarende visuelle attributter.
- Vi mener det ikke finnes noen storskala løsning på dette, sier Shah.