ML Kit per Firebase
Utilizza il machine learning nelle tue app per risolvere problemi reali.
ML Kit è un SDK per dispositivi mobili che porta l'esperienza di machine learning di Google nelle app per Android e iOS in un pacchetto potente ma facile da usare. Che tu sia alle prime armi o esperto di machine learning, puoi implementare la funzionalità che ti serve con poche righe di codice. Per iniziare, non è necessario avere una conoscenza approfondita delle reti neurali o dell'ottimizzazione dei modelli. D'altra parte, se sei uno sviluppatore ML esperto, ML Kit fornisce API pratiche che ti aiutano a utilizzare i tuoi modelli TensorFlow Lite personalizzati nelle tue app mobile.
Funzionalità chiave
| Pronto per la produzione per i casi d'uso comuni |
ML Kit include un insieme di API pronte all'uso per i casi d'uso mobile comuni: riconoscimento del testo, rilevamento dei volti, identificazione dei punti di riferimento, scansione dei codici a barre, etichettatura delle immagini e identificazione della lingua del testo. Basta trasferire i dati alla libreria ML Kit, che ti fornirà le informazioni di cui hai bisogno. |
| Sul dispositivo o nel cloud |
La selezione di API di ML Kit viene eseguita sul dispositivo o nel cloud. Le nostre API sul dispositivo possono elaborare i tuoi dati rapidamente e funzionano anche in assenza di una connessione di rete. Le nostre API basate sul cloud, invece, sfruttano la potenza della tecnologia di machine learning di Google Cloud per offrirti un livello di precisione ancora più elevato. |
| Eseguire il deployment di modelli personalizzati |
Se le API di ML Kit non coprono i tuoi casi d'uso, puoi sempre utilizzare i tuoi modelli TensorFlow Lite esistenti. Ti basta caricare il modello su Firebase e noi ci occuperemo dell'hosting e della pubblicazione nell'app. ML Kit funge da livello API per il tuo modello personalizzato, semplificandone l'esecuzione e l'utilizzo. |
Come funziona?
ML Kit semplifica l'applicazione di tecniche di ML nelle tue app riunendo le tecnologie di ML di Google, come l'API Google Cloud Vision, TensorFlow Lite e l'API Android Neural Networks, in un unico SDK. Che tu abbia bisogno della potenza dell'elaborazione basata sul cloud, delle funzionalità in tempo reale di modelli ottimizzati per il mobile sul dispositivo o della flessibilità di modelli TensorFlow Lite personalizzati, ML Kit lo rende possibile con poche righe di codice.
Quali funzionalità sono disponibili sul dispositivo o nel cloud?
Percorso di implementazione
| Integrare l'SDK | Includi rapidamente l'SDK utilizzando Gradle o Swift Package Manager. | |
| Preparare i dati di input | Ad esempio, se utilizzi una funzionalità di visione, acquisisci un'immagine dalla fotocamera e genera i metadati necessari, come la rotazione dell'immagine, oppure chiedi all'utente di selezionare una foto dalla galleria. | |
| Applica il modello ML ai tuoi dati | Applicando il modello di ML ai tuoi dati, generi approfondimenti come lo stato emotivo dei volti rilevati o gli oggetti e i concetti che sono stati riconosciuti nell'immagine, a seconda della funzionalità che hai utilizzato. Utilizza questi approfondimenti per potenziare le funzionalità della tua app, come l'abbellimento delle foto, la generazione automatica dei metadati o qualsiasi altra cosa tu possa immaginare. |
Passaggi successivi
- Esplora le API pronte all'uso: riconoscimento del testo, rilevamento dei volti, scansione dei codici a barre, etichettatura delle immagini, rilevamento e monitoraggio degli oggetti, riconoscimento dei punti di riferimento, Risposta rapida, traduzione e identificazione della lingua.
- Addestra il tuo modello di etichettatura delle immagini con AutoML Vision Edge.
- Scopri come utilizzare i modelli personalizzati ottimizzati per il mobile nella tua app.