Googles egne søkeapp finnes både på Android og iOS, og den har flere funksjoner – det mates inn informasjon fra Google Now-tjenesten som via bruk av kort gir informasjon om eventuelle aktiviteter man skal foreta seg, og det er mulig å utføre søk og forespørsler med stemmen.
I motsetning til Apples Siri og Microsofts Cortana har ikke Google fokusert så mye på stemme-delen av søket sitt. Google Now-kortene er deres løsning, disse presenterer informasjon visuelt og lettforståelig.
Les også: Dette skjer når kunstig intelligens får dagdrømme
Det er ikke umulig at strategien er i ferd med å endre seg. Om ikke annet skal Google-appen nå forstå bedre hva brukerne ber om, takket være noe som kan kalles for tilbakevendende nevrale nettverk, eller recurrent neural networks (RNN).
Det er en modell som Google nå har begynt å implementere i talebasert søk, og kort fortalt skal stemmegjenkjenningen bli mer nøyaktig, spesielt i miljøer der det er mye lyd, samt mye raskere.
Mer naturlig
Google forklarer at RNN-modellen kan for eksempel skille mellom flere lyder selv om disse lydene flyter naturlig inn i hverandre som en del av ett ord. Tidligere varianter av talegjenkjenning klarte det ikke.
Løsningen måtte også trenes opp til å bli raskere til å kjenne igjen fonemer, uten at det krever mye ressurser, da modellen mottar lyden i store bolker, men trenger ikke å gjøre like mange beregninger samtidig som tidligere varianter.
Les også: Microsoft bringer Cortana til iOS og Android
Forskerne la også til bakgrunnslyder til treningsdata, slik at modellen lærer seg å luke det ut.
Den siste utfordringen var å redusere forsinkelsen, og resultatet ble altså mye mer effektiv og intelligent talegjenkjenning.
Google bekrefter at denne nye modellen allerede nå er i bruk i søkeappene for både Android og iOS, samt for diktering på Android-enheter.