Usar TensorFlow Lite con Python es ideal para dispositivos integrados basados en Linux, como Raspberry Pi y dispositivos Coral con Edge TPU , entre muchos otros.
Esta página muestra cómo puede comenzar a ejecutar modelos de TensorFlow Lite con Python en solo unos minutos. Todo lo que necesitas es un modelo de TensorFlow convertido a TensorFlow Lite . (Si aún no tiene un modelo convertido, puede experimentar utilizando el modelo proporcionado en el ejemplo vinculado a continuación).
Acerca del paquete de tiempo de ejecución de TensorFlow Lite
Para comenzar a ejecutar rápidamente modelos de TensorFlow Lite con Python, puede instalar solo el intérprete de TensorFlow Lite, en lugar de todos los paquetes de TensorFlow. A este paquete Python simplificado lo llamamos tflite_runtime
.
El paquete tflite_runtime
es una fracción del tamaño del paquete tensorflow
completo e incluye el código mínimo necesario para ejecutar inferencias con TensorFlow Lite, principalmente la clase Interpreter
Python. Este pequeño paquete es ideal cuando todo lo que desea hacer es ejecutar modelos .tflite
y evitar desperdiciar espacio en disco con la gran biblioteca TensorFlow.
Instalar TensorFlow Lite para Python
Puedes instalar en Linux con pip:
python3 -m pip install tflite-runtime
Plataformas compatibles
Las ruedas Python tflite-runtime
están prediseñadas y se proporcionan para estas plataformas:
- Linux armv7l (por ejemplo, Raspberry Pi 2, 3, 4 y Zero 2 con sistema operativo Raspberry Pi de 32 bits)
- Linux aarch64 (por ejemplo, Raspberry Pi 3, 4 con Debian ARM64)
- Linuxx86_64
Si desea ejecutar modelos de TensorFlow Lite en otras plataformas, debe usar el paquete completo de TensorFlow o compilar el paquete tflite-runtime desde el código fuente .
Si está utilizando TensorFlow con Coral Edge TPU, debe seguir la documentación de configuración de Coral correspondiente.
Ejecute una inferencia usando tflite_runtime
En lugar de importar Interpreter
desde el módulo tensorflow
, ahora debes importarlo desde tflite_runtime
.
Por ejemplo, después de instalar el paquete anterior, copie y ejecute el archivo label_image.py
. (Probablemente) fallará porque no tiene instalada la biblioteca tensorflow
. Para solucionarlo, edite esta línea del archivo:
import tensorflow as tf
Entonces en su lugar se lee:
import tflite_runtime.interpreter as tflite
Y luego cambia esta línea:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Entonces se lee:
interpreter = tflite.Interpreter(model_path=args.model_file)
Ahora ejecute label_image.py
nuevamente. ¡Eso es todo! Ahora estás ejecutando modelos de TensorFlow Lite.
Más información
Para obtener más detalles sobre la API
Interpreter
, lea Cargar y ejecutar un modelo en Python .Si tiene una Raspberry Pi, vea una serie de videos sobre cómo ejecutar la detección de objetos en Raspberry Pi usando TensorFlow Lite.
Si está utilizando un acelerador Coral ML, consulte los ejemplos de Coral en GitHub .
Para convertir otros modelos de TensorFlow a TensorFlow Lite, lea sobre TensorFlow Lite Converter .
Si desea compilar la rueda
tflite_runtime
, lea Compilación del paquete de rueda Python TensorFlow Lite