Google porta il machine learning sui device con TensorFlow Lite

Google porta il machine learning sui device con TensorFlow Lite

TensorFlow Lite può consegnare funzionalità di machine learning sui dispositivi anche se questi non sono connessi ad internet o a servizi che funzionano in cloud

di Nino Grasso pubblicata il , alle 15:21 nel canale Casa
Google
 

Il rilascio della preview di TensorFlow Lite da parte di Google rappresenta un enorme passo in avanti nel campo dell'intelligenza artificiale. La dedizione della compagnia nello sviluppo di algoritmi capaci di essere eseguiti su dispositivi mobile, senza alcuna connessione ad internet e a servizi in cloud, getta le basi per l'integrazione di funzionalità realmente "intelligenti" all'interno dei piccoli gadget che comporranno la casa del futuro.

Ad oggi gli sviluppi più significativi dell'intelligenza artificiale in campo consumer sono legati a Google Assistant, Cortana, Alexa e Siri, che fin quando sono connessi ad internet possono offrire informazioni più o meno complesse ed eseguire diverse operazioni con i gadget interconnessi o sullo stesso dispositivo. La connessione ad internet rimane un must, ma TensorFlow Lite rappresenta i primi passi di un percorso che prevede l'accesso alla IA sempre e ovunque.

In queste ore la compagnia ha reso disponibile l'accesso ad una versione d'anteprima del software per Android e iOS, che non offre nuove funzionalità ma è progettato per far sì che l'hardware attuale (ad esempio la piattaforma Snapdragon di Qualcomm) possa gestire algoritmi tipicamente impossibili per i dispositivi mobile, a meno che questi non siano connessi ad internet e sfruttino la potenza computazionale di datacenter sparsi per il mondo.

Con la nuova piattaforma di Google è possibile eseguire modelli di intelligenza artificiale su smartphone e, dopo l'aggiunta costante di nuovi dati, eseguire gli algoritmi per migliorare costantemente l'efficacia delle risposte e determinare nuovi risultati. Si tratta in breve di machine learning on-the-go, eseguito in locale e senza hardware specifico. Un approccio un po' diverso, ma che punta agli stessi risultati, di quelli che hanno approntato ad esempio Apple e Huawei.

I due produttori hanno già inserito sui propri SoC mobile una sorta di "coprocessore neurale" capace di eseguire con efficacia le operazioni tipiche del machine learning del tutto in locale.

Il team alla base di TensorFlow Lite scrive sul sito ufficiale che il software è progettato con diversi criteri, fra cui rispondere alle esigenze della domotica smart integrando il machine learning on-device, alle esigenze di una migliore privacy sui dati degli utenti (che devono rimanere sul dispositivo), e soprattutto alle esigenze di chi necessita delle funzioni tipiche del machine learning anche offline, dove non c'è la possibilità di essere connessi ad una rete.

L'obiettivo finale è quello di creare dispositivi controllabili con la voce in locale, ma al tempo stesso dotati di una scarsa complessità sul piano computazionale e dell'elettronica. A descrivere bene il senso di TensorFlow è stato Pete Warden, che di recente ha dichiarato: "Quello che voglio è un chip delle dimensioni di 50 centesimi che può eseguire il riconoscimento vocale per un anno grazie all'alimentazione data da una batteria capace di entrare in una moneta".

E TensorFlow Lite è un passo in avanti per rendere possibile questo obiettivo.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^