يعد استخدام TensorFlow Lite مع Python أمرًا رائعًا للأجهزة المدمجة المستندة إلى Linux، مثل أجهزة Raspberry Pi وأجهزة Coral المزودة بـ Edge TPU ، من بين العديد من الأجهزة الأخرى.
توضح هذه الصفحة كيف يمكنك البدء في تشغيل نماذج TensorFlow Lite باستخدام لغة Python في دقائق معدودة. كل ما تحتاجه هو تحويل نموذج TensorFlow إلى TensorFlow Lite . (إذا لم يكن لديك نموذج تم تحويله بعد، فيمكنك تجربة استخدام النموذج المقدم مع المثال المرتبط أدناه.)
حول حزمة وقت التشغيل TensorFlow Lite
للبدء بسرعة في تنفيذ نماذج TensorFlow Lite باستخدام Python، يمكنك تثبيت مترجم TensorFlow Lite فقط، بدلاً من جميع حزم TensorFlow. نحن نسمي حزمة بايثون المبسطة tflite_runtime
.
تعد حزمة tflite_runtime
جزءًا صغيرًا من حجم حزمة tensorflow
الكاملة وتتضمن الحد الأدنى من التعليمات البرمجية المطلوبة لتشغيل الاستدلالات باستخدام TensorFlow Lite، وهي في المقام الأول فئة Interpreter
Python. تعتبر هذه الحزمة الصغيرة مثالية عندما يكون كل ما تريد فعله هو تنفيذ نماذج .tflite
وتجنب إضاعة مساحة القرص مع مكتبة TensorFlow الكبيرة.
قم بتثبيت TensorFlow Lite لبايثون
يمكنك التثبيت على Linux باستخدام النقطة:
python3 -m pip install tflite-runtime
المنصات المدعومة
تم تصميم عجلات Python tflite-runtime
مسبقًا وتوفيرها لهذه الأنظمة الأساسية:
- Linux Armv7l (على سبيل المثال Raspberry Pi 2 و3 و4 وZero 2 الذي يعمل بنظام التشغيل Raspberry Pi OS 32 بت)
- Linux aarch64 (على سبيل المثال Raspberry Pi 3، 4 الذي يعمل بنظام Debian ARM64)
- لينكس x86_64
إذا كنت تريد تشغيل نماذج TensorFlow Lite على منصات أخرى، فيجب عليك إما استخدام حزمة TensorFlow الكاملة ، أو إنشاء حزمة tflite-runtime من المصدر .
إذا كنت تستخدم TensorFlow مع Coral Edge TPU، فيجب عليك بدلاً من ذلك اتباع وثائق إعداد Coral المناسبة.
قم بتشغيل الاستدلال باستخدام tflite_runtime
بدلًا من استيراد Interpreter
من وحدة tensorflow
، أنت بحاجة الآن إلى استيراده من tflite_runtime
.
على سبيل المثال، بعد تثبيت الحزمة أعلاه، انسخ ملف label_image.py
وقم بتشغيله. سوف يفشل (على الأرجح) لأنه لم يتم تثبيت مكتبة tensorflow
. لإصلاح ذلك، قم بتحرير هذا السطر من الملف:
import tensorflow as tf
لذلك يقرأ بدلا من ذلك:
import tflite_runtime.interpreter as tflite
ثم قم بتغيير هذا السطر:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
لذلك يقرأ:
interpreter = tflite.Interpreter(model_path=args.model_file)
الآن قم بتشغيل label_image.py
مرة أخرى. هذا كل شيء! أنت الآن تقوم بتنفيذ نماذج TensorFlow Lite.
يتعلم أكثر
لمزيد من التفاصيل حول
Interpreter
API، اقرأ تحميل النموذج وتشغيله في Python .إذا كان لديك Raspberry Pi، فاطلع على سلسلة مقاطع فيديو حول كيفية تشغيل اكتشاف الكائنات على Raspberry Pi باستخدام TensorFlow Lite.
إذا كنت تستخدم مسرع Coral ML، فاطلع على أمثلة Coral على GitHub .
لتحويل نماذج TensorFlow الأخرى إلى TensorFlow Lite، اقرأ عن محول TensorFlow Lite .
إذا كنت تريد إنشاء عجلة
tflite_runtime
، فاقرأ Build TensorFlow Lite Python Wheel Package