پارامترهای جاسازی Momentum را با پشتیبانی از اشکال زدایی بازیابی کنید.
عملیاتی که پارامترهای بهینه سازی را از جاسازی در حافظه میزبان بازیابی می کند. باید قبل از آن یک عملیات ConfigureTPUEmbeddingHost باشد که پیکربندی صحیح جدول جاسازی را تنظیم می کند. به عنوان مثال، این عملیات برای بازیابی پارامترهای به روز شده قبل از ذخیره یک چک پوینت استفاده می شود.
کلاس های تو در تو
کلاس | بازیابیTPUEmbeddingMomentumParametersGradAccumDebug.Options | ویژگی های اختیاری برای RetrieveTPUEmbeddingMomentumParametersGradAccumDebug |
ثابت ها
رشته | OP_NAME | نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود |
روش های عمومی
بازیابی ایستاTPUEmbeddingMomentumParametersGradAccumDebug.Options | پیکربندی (پیکربندی رشته) |
Static RetrieveTPUEmbeddingMomentumParametersGradAccumDebug | ایجاد (حوزه دامنه ، NumShards طولانی، Long shardId، گزینهها... گزینهها) روش کارخانه برای ایجاد یک کلاس که یک عملیات RetrieveTPUEmbeddingMomentumParametersGradAccumDebug جدید را بسته بندی می کند. |
خروجی < TFloat32 > | gradient accumulators () پارامتر gradient_accumulators به روز شده توسط الگوریتم بهینه سازی Momentum. |
خروجی < TFloat32 > | لحظه () پارامتر لحظه به روز شده توسط الگوریتم بهینه سازی Momentum. |
خروجی < TFloat32 > | مولفه های () پارامترهای پارامتر توسط الگوریتم بهینهسازی Momentum بهروزرسانی شدند. |
بازیابی ایستاTPUEmbeddingMomentumParametersGradAccumDebug.Options | tableId (Long tableId) |
بازیابی ایستاTPUEmbeddingMomentumParametersGradAccumDebug.Options | tableName (رشته جدولName) |
روش های ارثی
ثابت ها
رشته نهایی ثابت عمومی OP_NAME
نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود
روش های عمومی
عمومی static RetrieveTPUEmbeddingMomentumParametersGradAccumDebug ایجاد ( دامنه دامنه ، NumShards طولانی، Long shardId، گزینهها... گزینهها)
روش کارخانه برای ایجاد یک کلاس که یک عملیات RetrieveTPUEmbeddingMomentumParametersGradAccumDebug جدید را بسته بندی می کند.
مولفه های
محدوده | محدوده فعلی |
---|---|
گزینه ها | مقادیر ویژگی های اختیاری را حمل می کند |
برمی گرداند
- یک نمونه جدید از RetrieveTPUEmbeddingMomentumParametersGradAccumDebug
خروجی عمومی < TFloat32 > gradientAccumulators ()
پارامتر gradient_accumulators به روز شده توسط الگوریتم بهینه سازی Momentum.
خروجی عمومی < TFloat32 > پارامترها ()
پارامترهای پارامتر توسط الگوریتم بهینهسازی Momentum بهروزرسانی شدند.