با پشتیبانی از اشکال زدایی، پارامترهای جاسازی پروگزیمال Adagrad را بازیابی کنید.
عملیاتی که پارامترهای بهینه سازی را از جاسازی در حافظه میزبان بازیابی می کند. باید قبل از آن یک عملیات ConfigureTPUEmbeddingHost باشد که پیکربندی صحیح جدول جاسازی را تنظیم می کند. به عنوان مثال، این عملیات برای بازیابی پارامترهای به روز شده قبل از ذخیره یک چک پوینت استفاده می شود.
کلاس های تو در تو
کلاس | RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug.Options | ویژگی های اختیاری برای RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug |
ثابت ها
رشته | OP_NAME | نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود |
روش های عمومی
خروجی < TFloat32 > | آکومولاتورها () انباشته کننده های پارامتر توسط الگوریتم بهینه سازی پروگزیمال آداگراد به روز شده اند. |
بازیابی استاتیکTPUEmbeddingProximalAdagradParametersGradAccumDebug.Options | پیکربندی (پیکربندی رشته) |
بازیابی استاتیکTPUEmbeddingProximalAdagradParametersGradAccumDebug | ایجاد (حوزه دامنه ، NumShards طولانی، Long shardId، گزینهها... گزینهها) روش کارخانه برای ایجاد کلاسی که یک عملیات RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug جدید را بسته بندی می کند. |
خروجی < TFloat32 > | gradient accumulators () پارامتر gradient_accumulators بهروزرسانی شده توسط الگوریتم بهینهسازی پروگزیمال Adagrad. |
خروجی < TFloat32 > | مولفه های () پارامترهای پارامتر توسط الگوریتم بهینه سازی پروگزیمال آداگراد به روز شده است. |
بازیابی استاتیکTPUEmbeddingProximalAdagradParametersGradAccumDebug.Options | tableId (Long tableId) |
بازیابی استاتیکTPUEmbeddingProximalAdagradParametersGradAccumDebug.Options | tableName (رشته جدولName) |
روش های ارثی
ثابت ها
رشته نهایی ثابت عمومی OP_NAME
نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود
روش های عمومی
خروجی عمومی < TFloat32 > انباشته ها ()
انباشته کننده های پارامتر توسط الگوریتم بهینه سازی پروگزیمال آداگراد به روز شده اند.
عمومی static RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug.Options پیکربندی (پیکربندی رشته)
عمومی static RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug ایجاد ( حوزه دامنه ، NumShards طولانی، Long shardId، گزینهها... گزینهها)
روش کارخانه برای ایجاد کلاسی که یک عملیات RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug جدید را بسته بندی می کند.
مولفه های
محدوده | محدوده فعلی |
---|---|
گزینه ها | مقادیر ویژگی های اختیاری را حمل می کند |
برمی گرداند
- یک نمونه جدید از RetrieveTPUEmbeddingProximalAdagradParametersGradAccumDebug
خروجی عمومی < TFloat32 > gradientAccumulators ()
پارامتر gradient_accumulators بهروزرسانی شده توسط الگوریتم بهینهسازی پروگزیمال Adagrad.
خروجی عمومی < TFloat32 > پارامترها ()
پارامترهای پارامتر توسط الگوریتم بهینه سازی پروگزیمال آداگراد به روز شده است.