L'uso di TensorFlow Lite con Python è ottimo per i dispositivi embedded basati su Linux, come i dispositivi Raspberry Pi e Coral con Edge TPU , tra molti altri.
Questa pagina mostra come iniziare a eseguire modelli TensorFlow Lite con Python in pochi minuti. Tutto ciò di cui hai bisogno è un modello TensorFlow convertito in TensorFlow Lite . (Se non hai ancora convertito un modello, puoi sperimentare utilizzando il modello fornito con l'esempio collegato di seguito.)
Informazioni sul pacchetto runtime TensorFlow Lite
Per iniziare rapidamente a eseguire modelli TensorFlow Lite con Python, puoi installare solo l'interprete TensorFlow Lite, anziché tutti i pacchetti TensorFlow. Chiamiamo questo pacchetto Python semplificato tflite_runtime
.
Il pacchetto tflite_runtime
è una frazione della dimensione del pacchetto tensorflow
completo e include il codice minimo necessario per eseguire inferenze con TensorFlow Lite, principalmente la classe Interpreter
Python. Questo piccolo pacchetto è l'ideale quando tutto ciò che vuoi fare è eseguire modelli .tflite
ed evitare di sprecare spazio su disco con la grande libreria TensorFlow.
Installa TensorFlow Lite per Python
Puoi installare su Linux con pip:
python3 -m pip install tflite-runtime
Piattaforme supportate
Le ruote Python tflite-runtime
sono precostruite e fornite per queste piattaforme:
- Linux armv7l (ad esempio Raspberry Pi 2, 3, 4 e Zero 2 con sistema operativo Raspberry Pi a 32 bit)
- Linux aarch64 (ad esempio Raspberry Pi 3, 4 con Debian ARM64)
- Linuxx86_64
Se desideri eseguire i modelli TensorFlow Lite su altre piattaforme, dovresti utilizzare il pacchetto TensorFlow completo o creare il pacchetto tflite-runtime dal sorgente .
Se utilizzi TensorFlow con Coral Edge TPU, dovresti invece seguire la documentazione di configurazione Coral appropriata.
Esegui un'inferenza utilizzando tflite_runtime
Invece di importare Interpreter
dal modulo tensorflow
, ora devi importarlo da tflite_runtime
.
Ad esempio, dopo aver installato il pacchetto sopra, copia ed esegui il file label_image.py
. (Probabilmente) fallirà perché non hai installato la libreria tensorflow
. Per risolverlo, modifica questa riga del file:
import tensorflow as tf
Quindi invece si legge:
import tflite_runtime.interpreter as tflite
E poi cambia questa riga:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Quindi si legge:
interpreter = tflite.Interpreter(model_path=args.model_file)
Ora esegui nuovamente label_image.py
. Questo è tutto! Ora stai eseguendo modelli TensorFlow Lite.
Saperne di più
Per ulteriori dettagli sull'API
Interpreter
, leggi Caricare ed eseguire un modello in Python .Se hai un Raspberry Pi, guarda una serie di video su come eseguire il rilevamento di oggetti su Raspberry Pi utilizzando TensorFlow Lite.
Se utilizzi un acceleratore Coral ML, consulta gli esempi Coral su GitHub .
Per convertire altri modelli TensorFlow in TensorFlow Lite, leggi informazioni su TensorFlow Lite Converter .
Se vuoi creare
tflite_runtime
wheel, leggi Costruisci il pacchetto TensorFlow Lite Python Wheel