به روز شده: ژوئن، 2021
جعبه ابزار بهینه سازی مدل TensorFlow (MOT) به طور گسترده برای تبدیل/بهینه سازی مدل های TensorFlow به مدل های TensorFlow Lite با اندازه کوچکتر، عملکرد بهتر و دقت قابل قبول برای اجرای آنها بر روی دستگاه های تلفن همراه و اینترنت اشیا استفاده شده است. ما اکنون در تلاش هستیم تا تکنیکها و ابزار MOT را فراتر از TensorFlow Lite گسترش دهیم تا از TensorFlow SavedModel نیز پشتیبانی کنیم.
موارد زیر نمایانگر سطح بالایی از نقشه راه ما است. باید توجه داشته باشید که این نقشه راه ممکن است در هر زمانی تغییر کند و ترتیب زیر نشان دهنده هیچ نوع اولویتی نیست. ما قویاً شما را تشویق می کنیم که در مورد نقشه راه ما نظر دهید و بازخورد خود را در گروه بحث به ما ارائه دهید.
کوانتیزاسیون
TensorFlow Lite
- کوانتیزاسیون انتخابی پس از آموزش برای حذف لایه های خاصی از کوانتیزه کردن.
- رفع اشکال کوانتیزاسیون برای بررسی تلفات خطای کوانتیزاسیون در هر لایه.
- استفاده از آموزش آگاهی از کوانتیزاسیون در پوشش مدل بیشتر به عنوان مثال باغ مدل تنسورفلو.
- بهبود کیفیت و عملکرد برای دامنه پویا پس از آموزش. کوانتیزاسیون
TensorFlow
- Quantization پس از آموزش (bf16 * int8 محدوده دینامیکی).
- آموزش کوانتیزاسیون آگاه ((bf16 * int8 فقط با کوانت جعلی).
- کوانتیزاسیون انتخابی پس از آموزش برای حذف لایه های خاصی از کوانتیزه کردن.
- رفع اشکال کوانتیزاسیون برای بررسی تلفات خطای کوانتیزاسیون در هر لایه.
پراکندگی
TensorFlow Lite
- پشتیبانی از اجرای مدل پراکنده برای مدل های بیشتر.
- نویسندگی آگاه را برای Sparity هدف قرار دهید.
- مجموعه عملیات پراکنده را با کرنلهای x86 اجرا کنید.
TensorFlow
- پشتیبانی Sparity در TensorFlow.
تکنیک های فشرده سازی آبشاری
- کوانتیزاسیون + فشرده سازی تانسور + پراکندگی: هر 3 تکنیک را نشان دهید که با هم کار می کنند.
فشرده سازی
- API فشردهسازی تانسور برای کمک به توسعهدهندگان الگوریتم فشردهسازی، الگوریتم فشردهسازی مدل خود را پیادهسازی میکند (مثلاً خوشهبندی وزن) از جمله ارائه یک روش استاندارد برای آزمایش/معیار.