Inferire modelli con metadati può essere semplice: bastano poche righe di codice. I metadati di TensorFlow Lite contengono una ricca descrizione di ciò che fa il modello e di come utilizzarlo. Può consentire ai generatori di codice di generare automaticamente il codice di inferenza, ad esempio utilizzando la funzionalità di associazione ML di Android Studio o il generatore di codice Android TensorFlow Lite . Può anche essere utilizzato per configurare la pipeline di inferenza personalizzata.
Strumenti e librerie
TensorFlow Lite fornisce una varietà di strumenti e librerie per soddisfare diversi livelli di requisiti di distribuzione come segue:
Genera l'interfaccia del modello con i generatori di codice Android
Esistono due modi per generare automaticamente il codice wrapper Android necessario per il modello TensorFlow Lite con metadati:
Android Studio ML Model Binding è uno strumento disponibile in Android Studio per importare il modello TensorFlow Lite tramite un'interfaccia grafica. Android Studio configurerà automaticamente le impostazioni per il progetto e genererà classi wrapper in base ai metadati del modello.
TensorFlow Lite Code Generator è un eseguibile che genera automaticamente l'interfaccia del modello in base ai metadati. Attualmente supporta Android con Java. Il codice wrapper elimina la necessità di interagire direttamente con
ByteBuffer
. Invece, gli sviluppatori possono interagire con il modello TensorFlow Lite con oggetti tipizzati comeBitmap
eRect
. Gli utenti di Android Studio possono anche accedere alla funzionalità codegen tramite Android Studio ML Binding .
Sfrutta le API predefinite con la libreria di attività TensorFlow Lite
La libreria di attività TensorFlow Lite fornisce interfacce modello ottimizzate pronte all'uso per le attività più comuni di machine learning, come classificazione delle immagini, domande e risposte, ecc. Le interfacce del modello sono progettate specificamente per ciascuna attività per ottenere le migliori prestazioni e usabilità. La libreria attività funziona su più piattaforme ed è supportata su Java, C++ e Swift.
Crea pipeline di inferenza personalizzate con la libreria di supporto TensorFlow Lite
La libreria di supporto TensorFlow Lite è una libreria multipiattaforma che aiuta a personalizzare l'interfaccia del modello e a creare pipeline di inferenza. Contiene una varietà di metodi di utilità e strutture dati per eseguire l'elaborazione pre/post e la conversione dei dati. È inoltre progettato per adattarsi al comportamento dei moduli TensorFlow, come TF.Image e TF.Text, garantendo coerenza dall'addestramento all'inferenza.
Esplora modelli preaddestrati con metadati
Sfoglia i modelli ospitati di TensorFlow Lite e TensorFlow Hub per scaricare modelli preaddestrati con metadati per attività di visione e di testo. Vedi anche diverse opzioni di visualizzazione dei metadati .
TensorFlow Lite supporta il repository GitHub
Visita il repository GitHub del supporto TensorFlow Lite per ulteriori esempi e codice sorgente. Facci sapere il tuo feedback creando un nuovo problema GitHub .