بارگذاری پارامترهای Adadelta با پشتیبانی از اشکال زدایی.
عملیاتی که پارامترهای بهینه سازی را برای جاسازی در HBM بارگذاری می کند. باید قبل از آن یک عملیات ConfigureTPUEmbeddingHost باشد که پیکربندی صحیح جدول جاسازی را تنظیم می کند. به عنوان مثال، این عملیات برای نصب پارامترهایی استفاده می شود که قبل از اجرای یک حلقه آموزشی از یک نقطه بازرسی بارگذاری می شوند.
کلاس های تو در تو
کلاس | LoadTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | ویژگی های اختیاری برای LoadTPUEmbeddingAdadeltaParametersGradAccumDebug |
ثابت ها
رشته | OP_NAME | نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود |
روش های عمومی
استاتیک LoadTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | پیکربندی (پیکربندی رشته) |
استاتیک LoadTPUEmbeddingAdadeltaParametersGradAccumDebug | ایجاد ( دامنه دامنه ، عملوند < TFloat32 > پارامترها، عملوند < TFloat32 > انباشتهها، Operand < TFloat32 > بهروزرسانیها، Operand < TFloat32 > gradientAccumulators، Long numShards، Long shardId، گزینهها... ) روش کارخانه برای ایجاد کلاسی که یک عملیات LoadTPUEmbeddingAdadeltaParametersGradAccumDebug جدید را بسته بندی می کند. |
استاتیک LoadTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | tableId (Long tableId) |
استاتیک LoadTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | tableName (رشته جدولName) |
روش های ارثی
ثابت ها
رشته نهایی ثابت عمومی OP_NAME
نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود
روش های عمومی
بارگذاری استاتیک عمومی LoadTPUEmbeddingAdadeltaParametersGradAccumDebug.Options پیکربندی (پیکربندی رشته)
عمومی استاتیک LoadTPUEmbeddingAdadeltaParametersGradAccumDebug ایجاد ( دامنه دامنه ، عملوند < TFloat32 > پارامترها ، عملوند < TFloat32 > انباشتهها، عملوند < TFloat32 > بهروزرسانیها، عملوند < TFloat32 > گزینههای gradientAccumulators
روش کارخانه برای ایجاد کلاسی که یک عملیات LoadTPUEmbeddingAdadeltaParametersGradAccumDebug جدید را بسته بندی می کند.
مولفه های
محدوده | محدوده فعلی |
---|---|
مولفه های | مقدار پارامترهای مورد استفاده در الگوریتم بهینه سازی Adadelta. |
انباشته کننده ها | ارزش انباشته های مورد استفاده در الگوریتم بهینه سازی Adadelta. |
به روز رسانی ها | ارزش به روز رسانی های مورد استفاده در الگوریتم بهینه سازی Adadelta. |
gradient accumulators | مقدار gradient_accumulators استفاده شده در الگوریتم بهینه سازی Adadelta. |
گزینه ها | مقادیر ویژگی های اختیاری را حمل می کند |
برمی گرداند
- یک نمونه جدید از LoadTPUEmbeddingAdadeltaParametersGradAccumDebug