Googles kunstige intelligens forlader skyen

Smarte besked-svar på nye Android-ure fungerer nu helt uden at forbinde til Googles servere.

Uret fra LG er det første der kører Android Wear 2 - styresystemet hvor Googles 'smart replies' virker lokalt. (© LG)

Kan kunstig intelligens fungere uden at forbinde til skyen?

Indtil videre har Google entydigt haft brug for at forbinde til firmaets servere, fx når deres chat-app ‘Allo’ eller deres email-app ‘Inbox’, har skulle forstå samtaler for bedre at kunne assistere brugerne.

Men nu er Google for første gang lykkedes med at implementere maskinlæring direkte på et device, som kan forstå og assistere brugernes samtaler. En opgave der typisk kræver mange computerkræfter og hukommelse, som kun er til rådighed i skyen.

Der er ikke engang brug for en telefon

Google har i forbindelse med lanceringen af Android Wear 2 (styresystemet til Android-ure) udviklet en message projection model, der kører direkte på uret.

Resultatet er, at brugerne nu bliver tilbudt automatisk genererede svarsætninger (Google kalder dem ‘smart replies’), når de kommunikerer med andre via besked-apps på uret.

Det forklarer Google i et blogindlæg med overskriften “On-Device Machine Intelligence”:

- Apps, der kører på enheden, kan videresende en brugers indgående meddelelser og modtage mulige svar-forudsigelser, uden at data forlader enheden. Modellen kan også tilpasses til brugerens skrivestil og individuelle præferencer, så det giver en mere personlig oplevelse, skriver Sujith Ravi, Staff Research Scientist hos Google.

Et eksempel er, at du modtager en besked fra en kontakt, hvor der står ‘tak for hjælpen’, hvorefter du bliver tilbudt fire valgmuligheder for ‘velbekomme svar’, du kan sende retur, blot ved et enkelt tryk på uret (se billedet nedenfor).

(© Google)

Sujith Ravi beskriver mere detaljeret i blogindlægget, hvordan Google er lykkedes med at udvikle en metode, der er meningsfuld for brugerne, samtidig med at den bruger meget få hestekræfter. Faktisk er udviklerne selv forbløffede over resultatet:

- Da vi begyndte rejsen med at bygge denne teknologi fra bunden, var vi ikke sikre på, om sætnings-forudsigelserne ville være nyttige eller af tilstrækkelig høj kvalitet. Vi er ganske overraskede og begejstrede over, hvor godt det virker - endda på Android Wear-enheder med meget begrænsede beregnings- og hukommelsesressourcer, skriver Sujith Ravi.

Giver nye muligheder for privacy

Udover, at det kan give en bedre brugeroplevelse, hvis svarene bliver genereret på stedet, uden at skulle forbinde til skyen først, så giver Googles løsning på den længere bane også potentielt bedre muligheder for at værne om en brugers privacy.

Hvis digitale assistenter i stigende grad kan fungere direkte på en enhed, betyder det, at man i højere grad kan udnytte de smarte muligheder som maskinlæring og neurale netværk tilbyder, uden at man nødvendigvis er tvunget til at dele alle sine informationer med et (amerikansk) firma.

Privacy vs Smarte løsninger

Netop privacy har været en af de helt store forskelle på Apple og Googles tilgang til, hvordan man assisterer brugerne på deres smartphones.

Selvom Apples assistent Siri også er helt afhængig af at forbinde til skyen, har Apple - af privacy-årsager - insisteret på, at en del af firmaets maskinlærings-løsninger skal foregå direkte på telefonen.

Dette sker allerede på iPhone. Fx bliver forslagene til hvilke apps, du bliver tilbudt hurtig adgang til (når du swiper nedad på hjemmeskærmen) genereret på telefonen, ligesom iPhone selv kan oprette kalenderaftaler baseret på invitationer i dine emails - vel at mærke uden at Apple først har brug for at “læse” dine emails på deres servere.

Flere har argumenteret for, at Apples ‘lokale’ tilgang vil gøre det næsten umuligt at tilbyde lige så gode løsninger i fremtiden, som firmaer der konsekvent benytter kræfterne i skyen. Men Googles nyeste påfund indikerer, at det godt kan lade sig gøre - selvom det naturligvis stadigvæk er en meget nedkogt udgave af de muligheder, som Googles traditionelle assistent tilbyder.